Nhiều ảnh khỏa thân, bạo lực không được Facebook nhận diện và loại bỏ

Nhiều ảnh khỏa thân, bạo lực không được Facebook nhận diện và loại bỏ
Các kỹ sư Facebook đã xác định một lỗi xếp hạng tin tức trên News Feed, nhờ đó một số thông tin sai lệch vẫn được hiển thị trong nhiều tháng vừa qua.

download-1588.jpg

Theo một báo cáo nội bộ mà The Verge có được, các kỹ sư Facebook lần đầu tiên phát hiện vấn đề này vào tháng 10.2021, khi một luồng thông tin sai lệch đột ngột tràn qua News Feed.

Thay vì ngăn chặn các bài đăng từ người dùng bị ghi nhận vi phạm chính sách về thông tin sai lệch nhiều lần, News Feed vẫn hiển thị các bài đăng đó và thậm chí giúp tăng lượt xem lên tới 30% trên toàn cầu. Chưa thể xác định được nguyên nhân ngay tức thì, vấn đề này vẫn tiếp tục được theo dõi cho đến khi được khắc phục triệt để vào hôm 11/3 vừa qua.

Theo The Verge, ngoài các bài đăng bị người kiểm tra gắn cờ thủ công, cuộc điều tra nội bộ cho thấy nhiều bức ảnh khỏa thân, bạo lực vẫn không được Facebook nhận diện và loại bỏ đúng cách. Trong nội bộ, sự cố này được Meta gán nhãn là SEV (site event) cấp một - nhãn dành riêng cho các cuộc khủng hoảng kỹ thuật có mức độ ưu tiên cao.

Trao đổi với The Verge, Joe Osborne, phát ngôn viên Meta - chủ sở hữu nền tảng Facebook, cho biết họ đã "phát hiện một số mâu thuẫn liên quan đến thuật toán hạ thứ hạng nội dung trong năm trường hợp riêng biệt, tuy nhiên hầu hết chúng chỉ là các vấn đề nhỏ và tạm thời".

Osborne cho biết đội ngũ Facebook đã tìm ra nguyên nhân và sẽ sửa các lỗi cần thiết.

Có thể bạn quan tâm