- Sự tiến bộ nhanh như tốc độ ánh sáng của trí tuệ nhân tạo (AI) đã khiến mọi người dễ dàng trở thành con mồi cho các trò lừa đảo bằng giọng nói AI và những vụ lừa đảo kiểu này ngày càng trở nên phổ biến. May mắn thay, các chuyên gia công nghệ đã tiết lộ một cách khá dễ dàng để phân biệt con người với những bản sao điện thoại kỹ thuật số này - bằng cách yêu cầu họ đưa ra một từ an toàn.
Ông Hany Farid - Giáo sư tại Đại học California, Berkeley, người đã nghiên cứu sâu về các hoạt động giả mạo giọng nói, cho biết: “Tôi thích ý tưởng từ mã vì nó đơn giản và giả sử người gọi đủ tỉnh táo để nhớ hỏi thì sẽ dễ dàng ngăn chặn được vụ lừa đảo”, tờ Scientific American đưa tin.
Là một chuyên gia về việc giả mạo giọng nói của Đại học California, Berkeley, ông Hany Farid cho rằng: “Hiện tại, không có cách rõ ràng nào khác để biết rằng người mà bạn đang nói chuyện chính là người mà họ giới thiệu”.
Việc ngăn chặn AI đã trở thành điều tối quan trọng trong bối cảnh có rất nhiều vụ lừa đảo qua điện thoại bằng AI, trong đó tội phạm mạng sử dụng các công cụ AI rẻ tiền để lặp lại tiếng nói của các thành viên trong gia đình nhằm lừa mọi người cung cấp cho họ số tài khoản ngân hàng và các thông tin có giá trị khác.
Các giọng nói thường được xây dựng lại từ byte âm thanh ngắn nhất được thu thập từ các video trên mạng xã hội của nạn nhân.
Nổi tiếng nhất trong số các âm mưu mạo danh AI này là “giả mạo ID người gọi”, trong đó những kẻ lừa đảo qua điện thoại tuyên bố rằng chúng đã bắt người thân của người nhận làm con tin và sẽ làm hại họ nếu họ không được trả một số tiền nhất định.
Phần mềm gian lận này đã trở nên tiên tiến đến mức giọng nói AI thường không thể phân biệt được với giọng nói của những người thân yêu.
“Tôi chưa bao giờ nghi ngờ dù chỉ một giây rằng đó chính là con bé,” bà Jennifer DeStefano, một bà mẹ ở Arizona, mô tả khi nhớ lại một vụ việc rùng rợn trong đó kẻ gian mạng đã sao chép giọng nói của con gái bà để chúng có thể đòi khoản tiền chuộc 1 triệu USD.
Để vượt qua những vụ lừa đảo các gia đình kiểu này đòi hỏi cần phải có “mật khẩu” riêng tư. Điều này xảy ra trong bối cảnh các vụ lừa đảo nhân bản AI ngày càng gia tăng, trong đó bọn tội phạm sử dụng công nghệ này để bắt chước các thành viên trong gia đình đòi tiền qua điện thoại.
Các chuyên gia tại Scientific American khuyên bạn nên phát minh ra một từ hoặc cụm từ riêng tư an toàn đặc biệt mà chỉ các thành viên trong gia đình bạn mới biết và sau đó chia sẻ trực tiếp với nhau.
Nếu họ gọi điện để đòi tiền trong trường hợp khẩn cấp, người đó có thể yêu cầu mật khẩu ngoại tuyến này, từ đó cho phép họ nhìn thấu những lời nói dối tiềm ẩn.
Ông Farid khuyên nên định kỳ đưa ra các câu đố về “từ an toàn” cho các thành viên trong gia đình để họ không quên. “Hiện tại, không có cách rõ ràng nào khác để biết rằng người mà bạn đang nói chuyện có phải là người mà họ nói hay không”.
Các chuyên gia đã so sánh phương pháp này với những lời nói an toàn mà cha mẹ dạy con cái họ để ngăn chặn những kẻ bắt cóc giả dạng bạn bè đón chúng ở trường.
Họ tuyên bố rằng mọi người thậm chí có thể sử dụng các từ mã thời thơ ấu của mình để bắt những kẻ mạo danh AI.
Tất nhiên, những từ ngữ an toàn không phải là cách duy nhất để phát hiện một bản sao “đội lốt con cừu” để lừa đảo.
Các dấu hiệu cảnh báo khác bao gồm các cuộc gọi bất ngờ yêu cầu hành động tài chính, tiếng ồn xung quanh mang tính xâm phạm và nghe có vẻ giả tạo dường như bị lặp lại cũng như sự mâu thuẫn trong cuộc trò chuyện.
Công ty giải pháp thanh toán kỹ thuật số Takepays cảnh báo: “Công nghệ nhân bản giọng nói thường gặp khó khăn trong việc tạo ra các cuộc hội thoại mạch lạc và chính xác theo ngữ cảnh. Nếu 'người' ở đầu bên kia mâu thuẫn với chính mình, đưa ra thông tin không phù hợp với những gì bạn biết hoặc có vẻ né tránh các câu hỏi trực tiếp, thì đó là lý do cần lo lắng."
Theo trang web, những kẻ lừa đảo qua mạng thường yêu cầu thanh toán bằng tiền điện tử vì “không thể theo dõi danh tính của người đang gửi tiền”.
Họ viết: “Bất kỳ yêu cầu nạp tiền nào thông qua các loại tiền kỹ thuật số phổ biến như Bitcoin hoặc Ethereum, đều phải được coi là rất đáng ngờ”.