Công nghệ nhân bản giọng nói đã nổi lên như một công cụ đặc biệt nguy hiểm, khi những kẻ lừa đảo dùng nó để bắt chước giọng nói của những người mà nạn nhân biết nhằm lừa họ chuyển tiền.
Công nghệ nhân bản giọng nói dễ giúp kẻ lừa đảo mạo danh người khác - Ảnh: ISTOCK
Bà Marie Haynes, một chuyên gia về trí tuệ nhân tạo (Al) cho biết, mọi người có thể sử dụng các công cụ như ChatGPT hay thậm chí Bing và Google để tạo ra giọng nói rất giống giọng nói và nhịp điệu nói của họ.
Công nghệ trí tuệ nhân tạo này sẽ khiến mọi người khó phân biệt giọng nói của người thật và người ảo, theo Đài CTV của Canada.
Bà Haynes cảnh báo nhân bản giọng nói sẽ là công cụ mới cho những kẻ lừa đảo mạo danh người khác.
Ông Carmi Levy, một nhà phân tích công nghệ, giải thích: những kẻ lừa đảo thậm chí có thể giả mạo số điện thoại của gia đình và bạn bè nạn nhân, khiến cuộc gọi có vẻ thực sự đến từ người mà chúng đang mạo danh.
Bà Haynes cũng cảnh báo nhân bản giọng nói mới chỉ là bước khởi đầu. Khi trí tuệ nhân tạo đủ mạnh, kẻ xấu thậm chí có thể nhân bản cả khuôn mặt của ai đó.
"Khi nhận được một cuộc gọi FaceTime, làm sao tôi biết được đó là người tôi thật sự quen biết? Biết đâu có ai đó đang giả mạo họ", bà Haynes nêu cảnh báo.
Các chuyên gia kêu gọi mọi người hãy cảnh giác. Nếu nhận được cuộc gọi đề nghị chuyển tiền, hãy xác minh trước khi bấm nút chuyển.
Theo trang Interesting Engineering, các nạn nhân của công nghệ Al này đã bị lừa một số tiền đáng kể.
Theo VOV