Thêm cảnh báo về công nghệ Deepfake

0
0

 - Các đối tượng lừa đảo thường sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác...

Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam mới đây cho biết đã nhận được phản ánh của ông Hồ Huy, Chủ tịch Tập đoàn Mai Linh về việc các đối tượng sử dụng công nghệ Deepfake để cắt ghép, phát tán các hình ảnh nhạy cảm của ông trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân của ông Huy, gây ảnh hưởng lớn đến hoạt động kinh doanh của Tập đoàn Mai Linh.

Phản ánh của ông Hồ Huy đã được Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam chuyển các cơ quan chức năng xem xét, xử lý theo quy định của pháp luật.

Ảnh minh họa
Ảnh minh họa

Các thủ đoạn lừa đảo bằng Deepfake

Công nghệ Deepfake là một công nghệ cho phép tạo ra các video, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao. Công nghệ này được phát triển dựa trên trí tuệ nhân tạo (AI), sử dụng các thuật toán học máy để phân tích và tái tạo các đặc điểm của khuôn mặt, giọng nói, cử chỉ của một người.

Deepfake có thể được sử dụng cho nhiều mục đích khác nhau, bao gồm giải trí, giáo dục, truyền thông. Tuy nhiên, công nghệ này cũng có thể bị lợi dụng cho mục đích xấu, như lừa đảo, bôi nhọ, phá hoại… Các đối tượng lừa đảo thường sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác…

Lừa đảo tài chính: Các đối tượng sử dụng Deepfake để tạo ra các video hoặc cuộc gọi giả mạo của người nổi tiếng, chính trị gia hoặc nhân vật có ảnh hưởng để yêu cầu nạn nhân chuyển tiền.

Bôi nhọ xúc phạm danh dự: Các đối tượng sử dụng Deepfake để tạo ra các video hoặc hình ảnh giả mạo nhằm bôi nhọ xúc phạm danh dự của người khác, khiến họ bị mất uy tín, mất việc làm hoặc bị xã hội xa lánh…

Phá hoại uy tín: Các đối tượng sử dụng Deepfake để tạo ra các video hoặc âm thanh giả mạo nhằm phá hoại uy tín của một tổ chức, doanh nghiệp, khiến họ bị mất khách hàng hoặc bị thiệt hại về kinh tế.

Cách nhận biết video, hình ảnh hoặc âm thanh Deepfake

Để nhận biết video, hình ảnh hoặc âm thanh Deepfake, người dùng có thể dựa vào một số dấu hiệu sau:

Các chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên: Các chi tiết trên khuôn mặt như mắt, mũi, miệng, lông mày, tóc,... hoặc giọng nói của người trong video, hình ảnh hoặc âm thanh có thể không tự nhiên, không phù hợp với ngữ cảnh.

Có các điểm bất thường trong video, hình ảnh hoặc âm thanh: Video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên,...

Nội dung video, hình ảnh hoặc âm thanh không phù hợp với thực tế: Nội dung video, hình ảnh hoặc âm thanh có thể không phù hợp với thực tế, không phù hợp với tính cách, hành vi của người trong video, hình ảnh hoặc âm thanh.

Khuyến cáo của Trung tâm xử lý tin giả, thông tin xấu độc

Tuy vậy với sự phát triển của công nghệ hiện nay, các hình ảnh do AI tạo ra gần như đã không có sự khác biệt và rất khó để phân biệt nếu không sử dụng các công cụ phân tích. Vì vậy, để phòng tránh lừa đảo bằng Deepfake, Trung tâm xử lý tin giả, thông tin xấu độc  Việt nam khuyến cáo người dùng mạng internet cần lưu ý một số điều sau:

Cẩn trọng với các thông tin được chia sẻ trên mạng xã hội: Không nên tin tưởng ngay vào các thông tin được chia sẻ trên mạng xã hội, đặc biệt là các thông tin liên quan đến tài chính, danh dự hoặc uy tín của người khác.

Kiểm tra kỹ thông tin trước khi thực hiện các giao dịch tài chính: Khi nhận được yêu cầu chuyển tiền từ người khác, người dùng cần kiểm tra kỹ thông tin của người yêu cầu chuyển tiền, xác minh nguồn gốc của yêu cầu và chỉ chuyển tiền khi chắc chắn rằng người yêu cầu chuyển tiền là người đáng tin cậy.

Thường xuyên cập nhật các kiến thức về công nghệ: Người dùng cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này.

PV


Ý kiến bạn đọc


Lời cảm ơn của gia đình Tổng Bí thư Nguyễn Phú Trọng

Chiều 26/7, ông Nguyễn Trọng Trường, đại diện gia đình Tổng Bí thư Nguyễn Phú Trọng đọc Lời cảm ơn của gia đình Tổng Bí thư tại Lễ Truy điệu.

Bức tâm thư của Phu nhân Tổng Bí thư Lào gửi Phu nhân Tổng Bí thư

(VnMedia) - VnMedia xin đăng tải toàn văn bức tâm thư của Phu nhân Tổng Bí thư Lào Naly Sisoulith gửi Phu nhân Tổng Bí thư Nguyễn Phú Trọng, Ngô Thị Mận.

Nhớ về một người Cộng sản chân chính

(VnMedia)- Mỗi khi nghĩ về Tổng Bí thư Nguyễn Phú Trọng là trong tôi hiện lên hình ảnh một người Cộng sản chân chính. Và, lúc này, tôi lại nhớ đến câu chuyện mẹ tôi vẫn kể trong những năm tháng bà còn sống về cha tôi - một người Cộng sản...

Cảnh báo chiêu trò lừa đảo tuyển người mẫu, cầu thủ nhí trên không gian mạng

(VnMedia) - Bộ Công an vừa phát đi cảnh báo về chiêu trò lừa đảo tuyển mẫu nhí, cầu thủ nhí, người đại diện thương hiệu nhằm chiếm đoạt tài sản qua không gian mạng.

Giá vàng đảo chiều tăng mạnh

(VnMedia) - Chốt phiên giao dịch rạng sáng nay (24/7), giá vàng giao ngay tại thị trường New York đã đảo chiều tăng mạnh hơn 13 USD/ounce. Trong nước, chiều qua, giá vàng miếng SJC vẫn duy trì ở mốc gần 80 triệu đồng/lượng ở chiều bán ra.