- Hội đồng Giám sát của Meta được thành lập để đánh giá việc xử lý nội dung khiêu dâm deepfake do trí tuệ nhân tạo (AI) tạo ra trong bối cảnh ngày càng có nhiều lo ngại rằng trí tuệ nhân tạo đang thúc đẩy việc tạo ra các hình ảnh giả mạo, tục tĩu như một hình thức quấy rối.
Hội đồng Giám sát của Meta hôm qua (16/4) cho biết, họ sẽ xem xét cách Meta xử lý hai hình ảnh rõ ràng do AI tạo ra về các nhân vật nữ của công chúng, một từ Mỹ và một từ Ấn Độ, để đánh giá liệu công ty có chính sách và thực tiễn phù hợp để giải quyết nội dung kiểu đó hay không - và liệu nó có thực thi các chính sách đó một cách nhất quán trên toàn thế giới hay không.
Mối đe dọa từ nội dung khiêu dâm giả do AI tạo ra đã thu hút sự chú ý trong những tháng gần đây, với những người nổi tiếng bao gồm Taylor Swift, cũng như học sinh trung học Mỹ và những phụ nữ khác trên khắp thế giới, trở thành nạn nhân của hình thức lạm dụng trực tuyến. Các công cụ AI tạo sinh có thể truy cập rộng rãi đã giúp việc tạo ra những hình ảnh như vậy nhanh hơn, dễ dàng hơn và rẻ hơn. Trong khi đó, các nền tảng truyền thông xã hội có thể lan truyền những hình ảnh này một cách nhanh chóng.
Đồng Chủ tịch Hội đồng Giám sát Meta Helle Thorning-Schmidt cho biết trong một tuyên bố rằng: “Nội dung khiêu dâm deepfake là nguyên nhân ngày càng tăng gây ra hành vi quấy rối trực tuyến dựa trên giới tính và ngày càng được sử dụng để nhắm mục tiêu, bịt miệng và đe dọa phụ nữ – cả trực tuyến và ngoại tuyến”.
Bà Thorning-Schmidt, từng là Thủ tướng Đan Mạch, cho biết thêm: “Chúng tôi biết rằng Meta nhanh hơn và hiệu quả hơn trong việc kiểm duyệt nội dung ở một số thị trường và ngôn ngữ so với các thị trường khác. Bằng cách lấy một trường hợp từ Mỹ và một trường hợp từ Ấn Độ, chúng tôi muốn xem liệu Meta có bảo vệ tất cả phụ nữ trên toàn cầu một cách công bằng hay không.”
Hội đồng Giám sát của Meta là một thực thể bao gồm các chuyên gia trong các lĩnh vực như tự do ngôn luận và nhân quyền. Hội đồng này thường được mô tả như một loại Tòa án tối cao dành cho Meta, vì nó cho phép người dùng kháng cáo các quyết định về nội dung trên nền tảng của công ty. Hội đồng đưa ra khuyến nghị cho công ty về cách xử lý các quyết định kiểm duyệt nội dung nhất định cũng như các đề xuất chính sách rộng hơn.
Là một phần của quá trình đánh giá, Hội đồng Giám sát sẽ đánh giá một trường hợp hình ảnh khỏa thân do AI tạo ra giống với một nhân vật của công chúng đến từ Ấn Độ đã được chia sẻ lên Instagram bởi một tài khoản “chỉ chia sẻ hình ảnh do AI tạo ra về phụ nữ Ấn Độ”.
Một người dùng đã báo cáo hình ảnh đó là khiêu dâm nhưng báo cáo đã tự động bị đóng sau khi không nhận được đánh giá từ Instagram trong vòng 48 giờ. Người dùng này đã kháng cáo quyết định để lại hình ảnh của Instagram, nhưng báo cáo một lần nữa không được xem xét và tự động bị đóng. Theo Hội đồng Giám sát, sau khi Hội đồng thông báo với Meta về ý định thụ lý vụ việc, công ty xác định rằng họ đã sai sót khi cho phép hình ảnh vẫn còn tồn tại và sau đó đã xóa nó vì vi phạm các quy tắc bắt nạt và quấy rối.
Trường hợp thứ hai liên quan đến hình ảnh do AI tạo ra về một phụ nữ khỏa thân đang bị sờ soạng, được đăng lên một nhóm Facebook dành cho các sáng tạo AI. Hình ảnh này được cho là giống với một nhân vật của công chúng Mỹ, người cũng được nhắc đến trong chú thích của hình ảnh.
Hình ảnh tương tự đã được đăng trước đó bởi một người dùng khác, sau đó, nó đã được chuyển đến các chuyên gia chính sách. Họ đã quyết định xóa nó vì vi phạm các quy tắc bắt nạt và quấy rối, “đặc biệt là đối với 'các bức vẽ hoặc photoshop mang tính khiêu dâm xúc phạm'”. Sau đó, hình ảnh này đã được thêm vào một ngân hàng khớp ảnh tự động phát hiện khi nào các hình ảnh vi phạm quy tắc được đăng lại, do đó bài đăng của người dùng thứ hai sẽ tự động bị xóa.
Trong phần đánh giá mới nhất, Hội đồng Giám sát của Meta đang tìm kiếm các bình luận của công chúng - có thể được gửi ẩn danh - về nội dung khiêu dâm giả mạo, bao gồm cả cách nội dung đó có thể gây hại cho phụ nữ và cách Meta phản hồi các bài đăng có hình ảnh khiêu dâm do AI tạo ra. Thời gian lấy ý kiến công chúng sẽ kết thúc vào ngày 30 tháng 4.