Deepfake - công nghệ trí tuệ nhân tạo giả mạo hình ảnh, giọng nói nhằm mục đích xấu, chiếm đoạt tài sản. Thủ đoạn tinh vi này đang là mối lo ngại với rất nhiều người dùng Internet trong thời gian vừa qua.
Deepfake là gì?
Ngay cả khi bạn không phải là một người theo dõi quá nhiều thông tin công nghệ, thì cụm từ "deepfake" chắc chắn cũng gợi cho bạn nhớ đến một loại công nghệ nào đó, bởi thời gian gần đây khái niệm này đang được đề cập rất nhiều trên các phương tiện truyền thông.
Theo Kaspersky (Công ty bảo mật của Nga) cho biết, deepfake là từ được ghép lại từ hai chữ "deep" trong deep-learning (học sâu) và "fake" (lừa dối). Deepfake có thể hiểu là một phương pháp trí tuệ nhân tạo (A.I) tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô, nó có khả năng học hỏi từ dữ liệu phi cấu trúc - chẳng hạn như khuôn mặt người. Nó thậm chí có thể thu thập dữ liệu về các chuyển động vật lý của con người.
Dữ liệu hình ảnh còn sẽ được xử lý tiếp để tạo video deepfake thông qua GAN (Mạng lưới đối thủ sáng tạo), đây là một loại hệ thống các máy học chuyên dụng. Hai mạng thần kinh có thể được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin nhằm mục đích huấn luyện A.I (Ví dụ: Ảnh chụp khuôn mặt) và sau đó tạo dữ liệu mới có cùng đặc điểm ("ảnh" mới).
Khả năng học hỏi của các A.I luôn được kiểm tra liên tục và so sánh với dữ liệu gốc nhằm mục đích huấn luyện, chính vì vậy mà hình ảnh được A.I "làm giả" ngày càng trở nên thuyết phục. Điều này khiến cho deepfake đang là mối đe dọa lớn hơn bao giờ hết. Không chỉ hình ảnh, A.I còn có có thể giả mạo các dữ liệu khác, một số công nghệ deepfake đã có thể được sử dụng để giả giọng nói.
Sử dụng deepfake để tung tin giả?
Rất khó để có thể giải thích cụ thể về phương thức hoạt động của deepfake theo hướng kỹ thuật. Nhưng có thể hiểu đơn giản rằng, deepfake với khả năng học hỏi dữ liệu khuôn mặt, hình ảnh và cả giọng nói của con người, nó sẽ khiến khuôn mặt của một người A được gắn lên cơ thể của người B rất giống thật, đến mức rất khó để nhận biết nếu chỉ đơn giản là nhìn lướt qua.
Vào năm 2017, một công ty khởi nghiệp A.I có tên Lyrebird đã phát hành bản sao giọng nói của những vị lãnh đạo Mỹ như ông Trump, ông Obama và bà Hilary Clinton. Kể từ đó, chất lượng đã được cải thiện rất nhiều và thậm chí ứng dụng Lyrebird còn cho phép công chúng sử dụng công khai.
Một ví dụ khác, thể hiện sự nguy hiểm của deepfake là video do nam diễn viên Jordan Peele thực hiện, đội ngũ kỹ thuật viên đã sử dụng cảnh quay thực của ông Barack Obama kết hợp với kỹ thuật dựng video và "deepfake" tạo ra một đoạn phát ngôn giả, trong video đó ông Obama dùng những lời lẽ không tốt đẹp để nói về ông Trump.
Ngay sau đó, nam diễn viên Jordan Peele đã đăng tải hai nửa của video được hợp nhất trông như thế nào, với mục đích cảnh báo mọi người về những thủ đoạn tinh vi nhằm tạo ra tin giả mà chúng ta có thể gặp trên môi trường Internet. Được biết, đội ngũ của nam diễn viên đã mất khoảng 60 tiếng đồng hồ để tạo ra video giả nhưng trông rất thực này.
Ông Obama không phải là chính khách duy nhất bị deepfake giả mạo, đến cả người sáng lập mạng xã hội Facebook cũng "được" deepfake làm giả, từ một bài phát biểu đơn thuần, deepfake đã tạo ra một video mà Mark Zuckerberg thừa nhận Facebook đánh cắp dữ liệu người dùng và đang kiểm soát tương lai. Mặc dù ở đoạn video này, A.I giả giọng ông Mark Zuckerberg không quá giống nhưng cũng rất khó để nhận ra.
Tất cả những ví dụ nêu trên đều là những đoạn video chỉ chu với độ phân giải, độ chi tiết cao, nhưng nếu bạn nghĩ hình ảnh càng sắc nét thì càng dễ lừa đảo có lẽ bạn đã lầm. Bà Nancy Pelosi từng là nạn nhân trong một video giả với những phát ngôn như một người đang say rượu, video giả này có chất lượng cực kỳ kém nhưng đã nhanh chóng thu hút hàng triệu lượt xem trên mạng xã hội, buộc bà Nancy Pelosi phải lên tiếng đính chính ngay sau đó.
Deepfake - Lừa đảo và tống tiền
Vẫn chưa dừng lại ở việc sử dụng deepfake để tung các loạt tin tức giả về chính trị, hay trả thù cá nhân. Các đối tượng lừa đảo còn áp dụng công nghệ này để tống tiền, chiếm đoạt tài sản.
CEO của một công ty năng lượng bị lừa 243.000 USD chỉ bằng giọng nói deepfake của người đứng đầu công ty đó với yêu cầu chuyển tiền khẩn cấp. Sự giả mạo quá thuyết phục khiến CEO không kịp nghi ngờ và không nghĩ đến việc kiểm tra chéo, tiền không được chuyển đến trụ sở chính mà đến một tài khoản ngân hàng bên thứ ba. CEO chỉ trở nên nghi ngờ khi "sếp" của anh ta yêu cầu thêm một đợt chuyển tiền khác. Kẻ giả mạo đã bị phát hiện, nhưng đã quá muộn để lấy lại số tiền 243.000 USD mà anh ấy vừa chuyển trước đó.
Ở Pháp, một người có tên Gilbert Chikli đã thực hiện hành vi mạo danh, cùng với việc sao chép tỉ mỉ văn phòng của Bộ trưởng Ngoại giao Jean-Yves le Drian và đồ đạc trong đó, để lừa đảo các giám đốc điều hành cấp cao hàng triệu EURO. Kẻ lừa đảo Gilbert Chikli sau đó đã bị cáo buộc cải trang thành bộ trưởng để yêu cầu các cá nhân giàu có và giám đốc điều hành công ty đưa tiền chuộc nhằm giải thoát các con tin người Pháp ở Syria, hắn ta sau đó đã phải hầu tòa cho hành vi của mình.
Tổng tiền bằng các video khiêu dâm là một viễn cảnh mà dường như ai cũng có thể nghĩ đến khi deepfake được ra đời. Cụ thể, công cụ này đã được sử dụng để tống tiền các nữ phóng viên và nhà báo, trường hợp của Rana Ayyub ở Ấn Độ, nữ phóng viên này đã bị ghép mặt vào các video khiêu dâm, sau đó kẻ gian đã sử dụng các video giả này để tống tiền cô.
Công nghệ ngày càng phát triển và việc tiếp cận deepfake trở nên đơn giản và chi phí thực hiện ngày càng rẻ hơn, khiến mức độ nguy hiểm tăng lên mỗi ngày. Nếu chúng ta không được trang bị đủ kiến thức và thông tin, rất khó để nhận ra deepfake.
Làm thế nào để tự bảo vệ trước deepfake?
Trước những chiêu trò lửa đảo ngày một trở nên tinh vi hơn và không phải người dùng nào cũng có đủ kiến thức về công nghệ thông tin để có thể tự mình nhận ra những video, âm thanh giả tạo bởi A.I. Chính vì vậy mà phần lớn các chuyên gia về bảo mật đều đưa ra những lời khuyên nhằm phòng tránh trước các tính huống xấu có thể xảy ra, đặc biệt là việc nâng cao bảo mật các tài khoản trực tuyến.
Tin tưởng nhưng vẫn phải xác minh: Nếu nhận được một đoạn tin nhắn thoại đặc biệt là các tin nhắn hướng đến mục đích vay tiền hoặc mượn tài sản cá nhân của bạn. Dù cho giọng nói nghe rất quen thuộc và cực kỳ giống thật, tốt nhất bạn vẫn nên gọi lại bằng số điện thoại mà bạn biết là chính xác để xác minh rằng đồng nghiệp, người thân đó của bạn đã thực sự gửi yêu cầu bằng tin nhắn thoại.
Đừng vội truy cập bất kỳ đường link nào: Khi được người thân gửi cho một đường link với những cấu trúc lạ, đừng vội vàng nhấp vào đường link/nút đó. Rất có thể đó là một cái bẫy được đưa ra để kẻ lừa đảo có thể chiếm đoạt tài khoản trực tuyến của bạn. Hãy tìm cách xác minh lại với người đã gửi tin nhắn cho bạn.
Hãy chú ý vào những điều nhỏ nhất: Nếu nhận được một cuộc gọi chuyển tiền hoặc video call với nội dung chuyển tiền, dù là người thân thiết, bạn vẫn hãy xem kỹ số điện thoại, email hoặc tài khoản có trùng hợp với người đang thực hiện yêu cầu hay không. Thông thường các đối tượng sẽ yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần tương tự.
Hạn chế quyền truy cập vào giọng nói và hình ảnh của bạn: Như chúng ta đã biết, để có thể tạo ra hình ảnh và âm thanh giả những kẻ lừa đảo sẽ cần các bản ghi âm, hình ảnh hoặc cảnh quay của bạn để tạo ra những sản phẩm giả. Để ngăn chặn việc dữ liệu hình ảnh, âm thanh của bạn bị sao chép, hãy hạn chế sự hiện diện của bạn trên mạng xã hội hoặc đặt tài khoản của bạn ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin tưởng.
Không những vậy, một số các chuyên trang về bảo mật còn đưa ra lời khuyên để có thể phát hiện deepfake ngay tức thì như sau:
- Chuyển động giật cục, như một đoạn video lỗi
- Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo
- Thay đổi tông màu da liên tục
- Video có những sự nhấp nháy lạ thường
- Khẩu hình miệng không đồng bộ với lời nói
- Hiện lên các đồ vật kỹ thuật số trong hình ảnh
- Âm thanh và/hoặc video chất lượng thấp
- Nhân vật nói liên tục, không chớp mắt
Deepfake - Hình thức lừa đảo nguy hiểm sẽ phổ biến hơn trong tương lai?
Tính đến tháng 6 năm 2019, số lượng video deepfake mà IBM phát hiện chỉ vỏn vẹn con số 3.000. Nhưng vào tháng 1 năm 2020, con số đó đã tăng lên 100.000. Và tính đến tháng 3 năm 2020, đã có hơn một triệu video deepfake lưu hành trên Internet.
Theo một nghiên cứu khác từ Deeptrace, vào tháng 12 năm 2018, đã có 15.000 video deepfake được ra đời. Con số này tăng lên 558.000 vào tháng 6 năm 2019 và tăng vọt lên hơn một triệu vào tháng 2 năm 2020.
Cũng trong nghiên cứu của Deeptrace, có đến 96% các video deepfake được tạo ra phục vụ các mục đích không hợp pháp. Những con số không biết nói dối này đang báo động cho chúng ta về một viễn cảnh chẳng mấy tốt đẹp. Công nghệ ngày càng phát triển và việc tiếp cận deepfake ngày càng trở nên đơn giản và tốn ít chi phí hơn, vì vậy các luồng thông tin giả, những chiêu trò lừa đảo,... áp dụng deepfake rất có thể sẽ tràn lan trên môi trường Internet.
Do đó, hãy thật cẩn trọng khi sử dụng Internet, đặc biệt là với các nền tảng mạng xã hội, nơi mà chúng ta luôn thoải mái chia sẻ rất nhiều thông tin cá nhân khiến cho các đối tượng xấu dễ dàng lợi dụng để thực hiện hành vi lừa đảo.
theo mic.gov.vn