Lừa đảo bằng giọng nói tạo bởi AI
Hãng tin AFP dẫn lời giới chuyên gia nhận định mối nguy lớn nhất từ trí tuệ nhân tạo (AI) là khả năng phá bỏ ranh giới giữa thực tế và hư ảo, trao cho tội phạm một công cụ rẻ tiền mà hiệu quả để truyền đi thông tin sai lệch.
Thời gian qua, tại Mỹ xảy ra nhiều vụ lừa đảo gây chấn động.
Jennifer DeStefano, sống tại bang Arizona nghe thấy giọng con gái khóc lóc kêu cứu từ đầu dây bên kia, sau đó một người đàn ông lên tiếng đòi tiền chuộc. Cô bị thuyết phục rằng con mình gặp rắc rối khi đi trượt tuyết và không nhận ra rằng, giọng nói ấy là giả.
“Tôi không thắc mắc đây là ai. Đó chính là giọng nói của con bé, cách khóc của con bé. Tôi chẳng hề nghi ngờ dù là một giây”, DeStefano kể lại trên sóng truyền hình.
Kẻ lừa đảo đòi 1 triệu USD. Sự việc chỉ bị vạch trần khi DeStefano liên lạc được với con gái. Vụ việc cho thấy rõ nguy cơ tội phạm sử dụng AI theo cách xấu.
Giám đốc Điều hành Công ty Blackbird.AI (chuyên cung cấp các giải pháp AI) Wasim Khaled cho biết: “Việc AI tạo ra được giọng nói gần như không khác với giọng nói người thật cho phép những đối tượng nguy hiểm - chẳng hạn như kẻ lừa đảo - lấy thông tin và tiền dễ dàng hơn”.
Một tìm kiếm đơn giản trên mạng sẽ mang lại rất nhiều ứng dụng miễn phí có sẵn, tạo ra giọng nói chỉ từ đoạn âm thanh mẫu (đôi khi chỉ vài giây) của chính chủ. Đoạn thoại có thể được lấy từ nội dung mà mọi người đăng tải trực tuyến.
“Với một đoạn âm thanh mẫu, ứng dụng AI giả giọng có thể tạo ra thư thoại hoặc văn bản thoại, thậm chí được dùng như công cụ thay đổi giọng nói trực tiếp trong cuộc gọi. Kẻ lừa đảo có thể sử dụng giọng nói, giới tính khác nhau, cũng như bắt chước cách nói chuyện của người thân nạn nhân”, theo Giám đốc Khaled.
Trong cuộc khảo sát 7.000 người tại 9 quốc gia do Công ty McAfee Labs thực hiện, cứ 4 người thì có 1 người từng bị lừa đảo bằng ứng dụng AI giả giọng hoặc biết ai đó bị lừa. Đến 70% người tham gia khảo sát không tự tin phân biệt được giọng nói người thật với giọng nói AI tạo ra.
Lừa đảo ông bà
Giới chức Mỹ cảnh báo tình trạng lừa đảo ông bà đang gia tăng. Kẻ lừa đảo mạo danh người cháu đang gặp khó khăn nên cần tiền gấp.
Ủy ban Thương mại liên bang Mỹ nêu một ví dụ: “Bạn nhận cuộc gọi với giọng nói hoảng loạn bên kia đầu dây. Đó là giọng cháu bạn, nói rằng vừa làm hỏng xe và phải ngồi tù. Nhưng bạn có thể giúp đỡ bằng cách gửi tiền”.
Ông của Eddie - thanh niên 19 tuổi sống tại Chicago - là trường hợp thực tế. Khi nghe giọng cháu trai “giả” cần tiếp gấp sau một tai nạn xe, người ông khẩn trương gom tiền – thậm chí còn cân nhắc thế chấp nhà. May mắn là hành vi lừa đảo bị phanh phui.
Đầu năm nay, Công ty khởi nghiệp AI ElevenLabs thừa nhận công cụ tạo giọng nói của mình có thể bị sử dụng cho mục đích xấu sau khi người dùng đăng tải một đoạn âm thanh giả giọng nữ diễn viên Emma Watson đọc hồi ký Mein Kampf do Adolf Hitler viết lúc bị giam trong tù năm 1924.
Nguồn Một Thế Giới: https://1thegioi.vn/lua-dao-bang-giong-noi-tao-boi-ai-201131.html