Các trò lừa deepfake đang là mối lo ngại trong bối cảnh hàng loạt kỳ bầu cử sẽ diễn ra trên thế giới trong năm 2024.
Những cú lừa deepfake đình đám
Trước cuộc bầu cử ở Indonesia vào ngày 14/2, mạng xã hội lan truyền đoạn video có cảnh cố Tổng thống Indonesia Suharto ủng hộ đảng chính trị mà ông từng lãnh đạo. Đoạn video được xác định là deepfake do AI tạo ra, đã sao chép khuôn mặt và giọng nói của ông Suharto. Video này thu hút được 4,7 triệu lượt xem chỉ riêng trên nền tảng X.
Deepfake là một kỹ thuật kết hợp giữa các thuật toán học sâu và học máy với mục đích tạo ra những video, hình ảnh hoặc âm thanh giả mạo một cách rất chân thực.
Đây không phải lần đầu tiên mà những vụ việc như vậy xảy ra. Ở Pakistan, một cú lừa deepfake về cựu Thủ tướng Imran Khan cũng xảy ra ngay trong khoảng thời gian diễn ra bầu cử, với nội dung là đảng của ông sẽ tẩy chay bầu cử.
Trong khi ở Mỹ, các cử tri ở New Hampshire bỗng dưng đọc được một bản tin giả về việc Tổng thống Joe Biden yêu cầu họ không bỏ phiếu trong cuộc bầu cử tổng thống sơ bộ.
Việc sử dụng deepfake để giả mạo các chính trị gia ngày càng trở nên phổ biến, đặc biệt là khi 2024 được coi là năm các cuộc bầu cử diễn ra nhiều nhất trên toàn thế giới.
Theo báo cáo, có ít nhất 60 quốc gia và hơn 4 tỉ người dân sẽ tham gia bầu chọn ra người lãnh đạo và đại diện của họ trong năm nay. Điều này khiến cho deepfake trở thành một mối quan ngại hết sức nghiêm trọng.
Sự gia tăng nhanh chóng của deepfake diễn ra trong năm 2024 - năm bầu cử toàn cầu lớn nhất trong lịch sử (Ảnh: The Hill) |
Theo báo cáo của Sumsub được công bố vào tháng 11/2023, số vụ lừa đảo deepfake trên toàn thế giới đã tăng 10 lần trong giai đoạn 2022 - 2023. Chỉ riêng ở khu vực châu Á - Thái Bình Dương, số vụ deepfake đã tăng 1.530%.
Phương tiện truyền thông trực tuyến, bao gồm các nền tảng xã hội và quảng cáo kỹ thuật số, đã chứng kiến tỷ lệ ăn cắp danh tính (identity theft) tăng mạnh nhất (274%) trong giai đoạn 2021 - 2023. Các dịch vụ chuyên nghiệp, chăm sóc sức khỏe, vận tải và game cũng nằm trong số những ngành bị ảnh hưởng bởi nạn ăn cắp danh tính.
Simon Chesterman, giám đốc cấp cao về quản trị AI tại AI Singapore, cho biết châu Á vẫn chưa sẵn sàng giải quyết vấn đề deepfake trong các cuộc bầu cử xét về các mặt quy định, công nghệ và giáo dục.
Trong báo cáo về mối đe dọa toàn cầu (Global Threat Report) năm 2024, công ty an ninh mạng CrowdStrike cảnh báo rằng với lượng lớn các cuộc bầu cử dự kiến diễn ra trong năm nay, có thể xuất hiện các chiến dịch thông tin sai lệch hoặc phát tán thông tin sai lệch.
“Những vụ can thiệp nghiêm trọng sẽ xảy ra nếu một cường quốc quyết định muốn tác động tới bầu cử của một quốc gia - điều đó có thể sẽ có tác động mạnh hơn so với ở cấp độ các đảng chính trị”, ông Chesterman cho hay.
Tuy nhiên, ông cho biết phần lớn các vụ deepfake vẫn sẽ chỉ được tạo ra bởi các tác nhân ở bên trong các quốc gia.
Carol Soon, nhà nghiên cứu cấp cao đứng đầu bộ phận văn hóa và xã hội tại Viện Nghiên cứu Chính sách ở Singapore, cho biết các tác nhân trong nước có thể bao gồm các phe đối lập và đối thủ chính trị, hoặc những người cực hữu và cánh tả.
Mối nguy tiềm tàng
Ở mức tối thiểu, deepfake sẽ gây ô nhiễm hệ sinh thái thông tin và khiến mọi người khó tìm thấy thông tin chính xác, khó hình thành ý kiến có cơ sở về một đảng hoặc ứng cử viên, bà Soon cho biết.
Các cử tri cũng có thể tẩy chay một ứng cử viên nếu họ thấy tin tức về một vấn đề tai tiếng được lan truyền rộng rãi về ứng cử viên này, trước khi nó bị vạch trần là tin giả. “Mặc dù một số chính phủ có các công cụ để ngăn chặn, vấn đề ở đây là những thông tin giả sẽ gây ra tác hại trước khi bị dập tắt”, theo ông Chesterman.
“Chúng ta đã thấy X (trước đây gọi là Twitter) có thể bị nội dung khiêu dâm deepfake liên quan đến Taylor Swift chiếm lĩnh nhanh chóng như thế này. Những thứ này có thể lan truyền cực kỳ nhanh chóng”, ông Chesterman nói thêm rằng các biện pháp giải quyết thường không đủ và cực kỳ khó thực thi. “Thường thì đã quá muộn”.
Adam Meyers, đến từ công ty công nghệ an ninh mạng CrowdStrike, nói rằng deepfake cũng có thể gợi nên sự thiên kiến xác nhận, một hiệu ứng trong quá trình xử lý thông tin, ở con người. “Ngay cả khi trong thâm tâm họ biết điều đó không đúng, họ vẫn sẽ chấp nhận nếu đó là thông điệp họ muốn và là điều họ muốn tin”, ông giải thích.
Nói thêm về các lo ngại, ông Chesterman cho rằng một đoạn phim giả mạo ghi lại hành vi sai trái trong kỳ bầu cử như nhồi phiếu, có thể khiến các cử tri mất niềm tin vào tính hợp lệ của cuộc bầu cử.
Còn theo bà Soon, các ứng viên có thể phủ nhận sự thật về bản thân họ, bằng cách tuyên bố rằng những thông tin xấu về họ đều là giả mạo.
Giới chuyên gia đề xuất giải pháp
Trong tháng 2 vừa qua, 20 công ty công nghệ hàng đầu bao gồm Microsoft, Meta, Google, Amazon, IBM cũng như công ty khởi nghiệp trí tuệ nhân tạo OpenAI và các công ty truyền thông xã hội như Snap, TikTok và X đã công bố cam kết chung nhằm chống lại việc sử dụng AI với mục đích lừa đảo trong kỳ bầu cử năm nay.
Cam kết chung được ký kết là bước đi quan trọng đầu tiên, nhưng hiệu quả của nó còn tùy thuộc vào việc thực thi. Theo bà Soon, khi các công ty công nghệ áp dụng nhiều biện pháp khác nhau trên nền tảng của họ, họ cần có một cách tiếp cận đa chiều. Các công ty công nghệ cũng cần phải hết sức minh bạch về những quyết định mà họ đưa ra.
Nhưng ông Chesterman cho rằng không nên quá kỳ vọng vào việc các công ty tư nhân thực hiện những chức năng cộng đồng cơ bản. Ông nói, việc quyết định nội dung nào được phép xuất hiện trên mạng xã hội là một quyết định khó thực hiện và các công ty có thể mất nhiều tháng để giải quyết.
“Chúng ta không nên chỉ dựa vào ý định tốt của những công ty này”, ông nói. “Đó là lý do tại sao cần phải thiết lập các quy định”.
Để đạt được mục tiêu này, Liên minh chứng minh và xác thực nội dung (C2PA), một tổ chức phi lợi nhuận, đã giới thiệu nền tảng chuyên xác thực kỹ thuật số cho nội dung. Nền tảng website này sẽ hiển thị cho người xem thông tin đã được xác minh, chẳng hạn như thông tin của người sáng tạo nội dung, thông tin đó được tạo ở đâu và khi nào, hoặc liệu thông tin đó có phải được tạo ra bởi AI tạo sinh hay không.
OpenAI đã thông báo rằng họ sẽ triển khai thông tin xác thực nội dung C2PA cho các hình ảnh được tạo bằng sản phẩm DALL·E 3 vào đầu năm nay.
Trong một cuộc phỏng vấn với Bloomberg tại Diễn đàn Kinh tế Thế giới trong tháng 1, người sáng lập kiêm Giám đốc điều hành OpenAI Sam Altman cho biết công ty “khá tập trung” vào việc đảm bảo rằng công nghệ của mình không bị sử dụng để thao túng các cuộc bầu cử.
Ông Meyers đề xuất thành lập một thực thể kỹ thuật phi lợi nhuận với nhiệm vụ duy nhất là phân tích và xác định các deepfake. “Sau đó, người dân có thể gửi cho tổ chức này những nội dung mà họ nghi ngờ là bị thao túng. Ít nhất là còn có cơ chế mà người dân có thể dựa vào”, ông nói.
Nhưng cuối cùng, mặc dù công nghệ là một phần của giải pháp nhưng phần lớn nó lại thuộc về người tiêu dùng, những người vẫn chưa sẵn sàng, ông Chesterman nói.
Bà Soon cũng nhấn mạnh tầm quan trọng của việc giáo dục cộng đồng. “Chúng ta cần tiếp tục nỗ lực nâng cao cảnh giác và ý thức của công chúng đối với tiếp cận thông tin”, bà nói.
theo viettimes.vn
https://viettimes.vn/lo-ngai-deepfake-bung-no-trong-nam-bau-cu-post173785.html