Facebook đã xóa 8,7 triệu bài đăng về lạm dụng trẻ em chỉ trong 3 tháng bằng công nghệ machine learning

Trí tuệ nhân tạo đang giúp những kiểm duyệt viên của Facebook giảm được rất nhiều gánh nặng. 

Mới đây, Facebook đã công bố họ đã loại bỏ được 8,7 triệu bài đăng về lạm dụng trẻ em chỉ trong 3 tháng vừa qua nhờ công nghệ mới. Giám đốc toàn cầu phụ trách mảng an ninh của Facebook, Antigone Davis tự hào thông cáo rằng công nghệ AI và máy học được phát triển và tích hợp từ năm trước đã xóa 99% những bài đăng có nội dung tương tự trước khi người dùng kịp ấn nút “Báo cáo”.

Facebook đã xóa 8,7 triệu bài đăng về lạm dụng trẻ em chỉ trong 3 tháng bằng công nghệ machine learning

Công nghệ mới này thực hiện kiểm tra các bài đăng để rà soát và tìm ra các nội dung bao gồm khiêu dâm trẻ em và nhiều hình thức lạm dụng khác. Không những vậy, nếu thấy cần thiết, ảnh và tài khoản đăng bài sẽ được báo cáo tới Trung tâm quốc gia về trẻ em mất tích và bị lạm dụng của Mỹ. Trước đó, mạng xã hội này cũng đã tích hợp thêm công cụ so sánh hình ảnh được đăng tải với những hình ảnh đã tồn tại trong cơ sở dữ liệu về lạm dụng và khiêu dâm trẻ em nhưng công cụ mới này còn có thể ngăn chặn trước những nội dung không xác định, không cho nội dung đó phát tán thông qua nền tảng này.

Tuy vậy, công nghệ thì không thể hoàn hảo, nhiều bậc cha mẹ phàn nàn rằng những bức ảnh ngây thơ, hoàn toàn trong sạch về con trẻ họ cũng đã bị xóa bỏ. Nhưng theo ông Davis, trong bài một bài blog, thì đây là “để nhằm ngăn chặn ‘ngay từ trong trứng nước’ hành vi lạm dụng, công nghệ mới cũng sẽ có tác động với những nội dung nhạy cảm nhưng không đến mức phản cảm, chẳng hạn như cảnh bố mẹ tắm cho con” và “lối tiếp cận tổng thể” này chính là lí do mà Facebook đã xóa nhiều nội dung tới vậy.

Công nghệ kiểm duyệt của Facebook trước giờ vẫn luôn bị nhiều người cho rằng không chính xác và đủ toàn diện. Không chỉ loại bỏ những bức ảnh chụp gia đình, Facebook còn bị chỉ trích vì xóa nội dung mang tính biểu tượng, chẳng hạn như bức ảnh chụp cô bé Phan Thị Kim Phúc năm 1972. Cô nổi tiếng với tên gọi “Cô bé Napalm” và xuất hiện trong bức ảnh lúc đang trần truồng bỏ chạy sau khi bị bỏng độ ba trong một cuộc tấn công bằng bom napalm ở miền Nam Việt Nam. Sau đó, COO của Facebook là Sheryl Sandberg đã phải công khai xin lỗi về vấn đề này.

Năm trước, chính sách kiểm duyệt của công ty này cũng đã bị trỉ trích bởi Hiệp hội quốc gia về Chống hành vi tàn bạo đối với trẻ em của Vương quốc Anh. Đây cũng là tổ chức đã yêu cầu các công ty truyền thông xã hội bắt buộc phải có các phương thức kiểm duyệt độc lập, và kêu gọi sự trừng phạt đối với những công ty không tuân thủ. Cũng trong khoảng thời gian ấy, Facebook Live chính thức đi vào hoạt động, điều này đã khiến cho mạng xã hội này và các công cụ kiểm duyệt của họ bị quá tải bởi những nội dung về lạm dụng tình dục, tự tử và giết người mà vụ việc ông bố tự tay giết hại đứa con 11 tháng tuổi tại Thái Lan là một ví dụ.

Tuy nhiên, khả năng kiểm duyệt nội dung trên mạng xã hội chính là một ví dụ đáng để bàn luận cho lợi ích mà AI có thể mang lại cho con người. Tháng trước, Selena Scola, cựu nhân viên kiểm duyệt của Facebook đã kiện công ty này với cáo buộc việc cô phải chứng kiến hàng ngàn hình ảnh bạo lực mỗi ngày đã khiến cô gặp trấn thương tâm lý. Nhiều kiểm duyệt viên khác cũng đã gọi tới đường dây tâm lí để tâm sự về công việc, và phàn nàn rằng Facebook đã không chuẩn bị những khóa đào tạo, hoặc cung cấp sự hỗ trợ, hay các khoản tiền bồi thường về tâm lý cho nhân viên.

Theo VNReview