Sập bẫy lừa đảo vì giọng nói nhân tạo

Theo các chuyên gia an ninh, Australia đang chứng kiến 'làn sóng' tội phạm sử dụng công nghệ trí tuệ nhân tạo (AI) tinh vi tạo ra các giọng nói giả mạo để lừa đảo và tống tiền nạn nhân.

Công nghệ AI tạo ra các giọng nói giả mạo như thật. Ảnh: IP WATCHDOG

Công nghệ AI tạo ra các giọng nói giả mạo như thật. Ảnh: IP WATCHDOG

Đài SBS cho biết, trên thực tế, trò lừa đảo giả giọng nói đã được sử dụng như một mánh khóe gian lận tài chính và phá hoại chính trị trong nhiều năm qua. Nhưng với xu hướng ngày càng gia tăng, bọn tội phạm đang áp dụng các công nghệ tinh vi để ghi âm các cuộc gọi điện thoại, tái tạo giọng nói của mọi người để trục lợi.

Bà Monica Whitty, Giáo sư an ninh mạng, Trưởng khoa Phần mềm và an ninh mạng tại Đại học Monash (Australia), đưa ra một kịch bản thường được tội phạm sử dụng. Đầu tiên, một người trả lời cuộc gọi từ số điện thoại ẩn danh và nói chuyện ngắn gọn với người ở đầu bên kia (vốn là một kẻ lừa đảo mà họ không hề hay biết). Sau đó, bản ghi âm cuộc trò chuyện đó được sử dụng để “huấn luyện” AI về cách tái tạo giọng nói của nạn nhân (không chỉ nguyên văn mà còn phát triển theo nhiều nội dung khác nhau). Bản sao giọng nói này, được gọi là âm thanh deepfake, có thể được sử dụng để lừa đảo người khác.

Những tiến bộ công nghệ đã khiến ứng dụng giả giọng trở nên đa dạng và hiệu quả hơn. Trong các vụ lừa đảo, nhất là lừa đảo tình cảm hoặc đầu tư, trước đây tội phạm chỉ giả giọng khi nạn nhân nghi ngờ đó là mối quan hệ giả tạo… Nhưng giờ đây, với sự hỗ trợ của công nghệ hiện đại, các cuộc trao đổi qua lại được sử dụng thay vì nhắn tin, giúp tạo sự tin tưởng và khiến nạn nhân dễ sập bẫy hơn.

Ông Shahriar Kaisar, nhà nghiên cứu an ninh mạng của Đại học RMIT (Australia), cho hay: “Tội phạm sử dụng mô hình học máy (machine learning), thu thập các mẫu giọng nói hoặc đôi khi là hình ảnh video từ các nguồn trực tuyến như YouTube, TikTok. Dữ liệu sau đó được AI tạo ra một thứ gì đó giống hệt như thật, giống như cách người khác có thể nghe thấy bạn nói”. Do đó, chuyên gia Kaisar cảnh báo mọi người nên cẩn thận với các loại nội dung họ chia sẻ trên mạng, nhất là khi chia sẻ nội dung cá nhân như video, hình ảnh và ghi âm giọng nói của mình, nhằm giảm bớt nguy cơ trở thành nạn nhân của việc nhân bản giọng nói.

Trong khi đó, Giáo sư Whitty khuyến nghị mọi người hãy luôn cảnh giác và giảm tối thiểu thời gian nói chuyện với ai đó đáng nghi ngờ hoặc chưa quen biết. “Nếu có một thành viên trong gia đình hoặc ai đó gọi cho bạn vì lý do khẩn cấp, tốt hơn hết nên tạm dừng và sau đó gọi lại cho người đó hoặc liên hệ với họ theo cách khác, chỉ để bảo đảm rằng là họ đúng là người đang nói chuyện với bạn”, bà Whitty nói.

Ngày 1-6 vừa qua, Chính phủ Australia đã công bố dự luật mới quy định việc tự ý chia sẻ hình ảnh nhạy cảm giả mạo của người khác mà không được phép sẽ bị khép tội hình sự. Dự luật dự kiến được đưa ra xem xét tại Quốc hội trong tuần này, sẽ đưa ra mức án tù lên tới 6 năm đối với hành vi chia sẻ hình ảnh khiêu dâm vốn được chỉnh sửa bằng công nghệ deepfake mà không có sự đồng thuận. Hình phạt tăng lên 7 năm tù nếu đối tượng phạm tội cũng chính là người tạo ra nội dung đồi trụy đó.

MINH CHÂU

Nguồn SGGP: https://sggp.org.vn/sap-bay-lua-dao-vi-giong-noi-nhan-tao-post742889.html