Giả mạo giọng nói và hình ảnh bằng công nghệ Deepfake để lừa đảo
Thuế, hải quan, Cảnh sát hình sự, ngân hàng và các lãnh đạo cấp cao là những đối tượng thường bị giả mạo hình ảnh và giọng nói bằng công nghệ Deepfake nhiều nhất, chủ yếu nhằm mục đích lừa đảo chiếm đoạt tài sản (LĐCĐTS).
Khó phân biệt thật giả
Deepfake là một thuật ngữ kết hợp từ "deep learning" (học sâu) và "fake" (giả mạo), dùng để chỉ các công nghệ sử dụng trí tuệ nhân tạo (AI) tạo ra các video bao gồm âm thanh, giọng nói hoặc hình ảnh giả mạo tinh vi, có độ chân thực cao. Đặc biệt, với sự phát triển của các công cụ như ElevenLabs hay các mô hình nguồn mở như DALL-E hay Stable Diffusion, việc tạo ra giọng nói giả có độ chính xác lên đến 99%, khiến cho việc phân biệt thật giả trở nên vô cùng khó khăn.
Thực tế đã có nhiều vụ lừa đảo (LĐ) Deepfake nghiêm trọng diễn ra gần đây, thu hút sự chú ý của công chúng và giới chức pháp luật, đồng thời dấy lên hồi chuông cảnh báo nghiêm trọng về nguy cơ LĐ lan rộng. Đơn cử như vụ lừa đảo trị giá 25 triệu USD xảy ra tại Hồng Kông (Trung Quốc), trong đó một nhân viên tài chính của công ty Arup đã bị gài bẫy khi tham gia một cuộc gọi video với những người mà anh ta tin là giám đốc tài chính và các đồng nghiệp. Thực tế, tất cả những người tham gia cuộc gọi đều là những bản sao Deepfake. Sau khi bị thuyết phục, nhân viên này đã chuyển khoản tổng cộng 200 triệu đô la Hồng Kông (Trung Quốc) (gần 25 triệu USD) cho những kẻ lừa đảo.
Một vụ LĐ đáng chú ý khác là một công ty năng lượng tại Anh đã mất 243.000 USD do một kẻ LĐ giả mạo giọng nói của giám đốc điều hành công ty mẹ ở Đức, yêu cầu chuyển khoản khẩn cấp đến một nhà cung cấp ở Hungary. Số tiền này sau đó đã được chuyển tiếp đến các tài khoản ở Mexico, khiến việc truy tìm kẻ LĐ trở nên khó khăn hơn.
Các nhân vật nổi tiếng như cựu Thủ tướng Singapore Lý Hiển Long, nhà lãnh đạo Đài Loan (Trung Quốc) Thái Anh Văn, YouTuber nổi tiếng MrBeast hay các phóng viên của BBC cũng đã trở thành nạn nhân của các video Deepfake. Những video này xuất hiện trên nhiều nền tảng như TikTok, Facebook để kêu gọi đầu tư vào những dự án không có thật, khiến nhiều người dùng bị thiệt hại đáng kể.
Tại Việt Nam, thuế, hải quan, Cảnh sát hình sự, ngân hàng và các lãnh đạo cấp cao là những đối tượng thường bị giả mạo hình ảnh và giọng nói bằng công nghệ Deepfake nhiều nhất, chủ yếu nhằm mục đích LĐCĐTS. Gần đây nhất có vụ việc Bí thư Thành ủy TPHCM Nguyễn Văn Nên bị giả mạo giọng nói, gọi điện yêu cầu một người cán bộ cho vay mượn tiền. Rất may là người này đã nhận ra sự bất thường khi tên tài khoản người nhận tiền không phải là tên ông Nên và dừng cuộc gọi đúng lúc.
công cụ phòng, chống lừa đảo từ Deepfake
Một trong những tác động tiêu cực lớn nhất và dễ dàng nhận thấy nhất của Deepfake là nguy cơ LĐ tài chính. Ví dụ điển hình là vụ LĐ xảy ra tại Hồng Kông (Trung Quốc) kể trên, kẻ LĐ đã tạo ra một cuộc gọi video với không chỉ một mà nhiều người tham gia, tất cả đều là hình ảnh Deepfake, khiến nạn nhân tin tưởng và thực hiện giao dịch mà không nghi ngờ gì.
Deepfake cũng được sử dụng để tấn công danh dự và uy tín của cá nhân. Các video hoặc âm thanh giả mạo có thể được tạo ra nhằm bôi nhọ danh tiếng của người khác, gây ra tổn hại nghiêm trọng đến hình ảnh cá nhân và sự nghiệp của họ. Đặc biệt, những trường hợp này không chỉ ảnh hưởng đến cá nhân mà còn có thể lan rộng ra cả tổ chức và cộng đồng, dẫn đến sự hoài nghi về tính xác thực của thông tin, làm giảm niềm tin vào các nguồn tin tức và thông tin trực tuyến, từ đó có thể ảnh hưởng đến sự ổn định xã hội.
Bên cạnh đó, cần lưu ý rằng, công nghệ Deepfake cũng có thể được sử dụng theo cách tích cực như trong ngành giải trí và điện ảnh. Deepfake cho phép tạo ra các hiệu ứng đặc biệt, tái hiện các diễn viên đã qua đời, hoặc thậm chí tạo ra những cảnh quay mà trước đây không thể thực hiện được. Công nghệ này mở ra những khả năng sáng tạo mới, giúp các nhà làm phim và nghệ sĩ kể những câu chuyện một cách độc đáo và hấp dẫn hơn.
Tuy nhiên, trong bối cảnh hành lang pháp lý các quốc gia đều chưa đủ chặt chẽ, trong khi các quy chuẩn về đạo đức chưa đủ mạnh mẽ để ngăn chặn các hành vi LĐ lợi dụng Deepfake, bản thân mỗi cá nhân, doanh nghiệp sẽ phải chủ động bảo vệ chính bản thân mình trước những nguy cơ LĐ ngày càng tinh vi và nghiêm trọng hơn.
Đối với cá nhân, cần nâng cao tinh thần cảnh giác và kiểm tra kỹ thông tin trước khi tin tưởng. Khi nhận được tin nhắn hoặc video yêu cầu vay tiền, dù giọng nói và hình ảnh có vẻ quen thuộc, người dùng nên gọi lại bằng số điện thoại của người thân để xác minh. Việc sử dụng các công cụ xác thực và kiểm tra nguồn gốc thông tin cũng rất quan trọng. Các phần mềm như Intel Fake Catcher và Microsoft Video Authenticator có thể giúp người dùng xác định liệu video có bị chỉnh sửa hay không. Hạn chế quyền truy cập vào tài khoản mạng xã hội cũng là một biện pháp phòng ngừa hữu ích, nhằm ngăn chặn việc dữ liệu hình ảnh và âm thanh bị sao chép.
Đối với tổ chức và doanh nghiệp, cần đào tạo nhân viên về cách nhận biết và phòng chống Deepfake. Ngoài ra, áp dụng các biện pháp bảo mật và xác thực mạnh mẽ, như sử dụng công nghệ phát hiện Deepfake trong các giao dịch trực tuyến, sẽ giúp bảo vệ tài sản và thông tin của tổ chức.
Đối với chính phủ và cơ quan chức năng, cần xây dựng và thực thi các quy định pháp lý liên quan đến Deepfake. Việc này không chỉ giúp bảo vệ người tiêu dùng mà còn tạo ra một khung pháp lý rõ ràng để xử lý các hành vi LĐ. Tăng cường hợp tác quốc tế cũng rất quan trọng, vì vấn đề Deepfake không chỉ giới hạn trong một quốc gia mà còn là mối đe dọa toàn cầu. Các tổ chức và chính phủ cần phối hợp để phát triển công nghệ phòng, chống và chia sẻ thông tin về các phương thức LĐ mới.
Để nâng cao hiệu quả phòng, chống Deepfake, cá nhân, tổ chức có thể sử dụng một số phần mềm và dịch vụ phổ biến hiện nay như Sentinel (giải pháp phát hiện Deepfake dựa trên đám mây, sử dụng nhiều kỹ thuật phân tích như nhận dạng điểm chuẩn khuôn mặt, kiểm tra tính nhất quán theo thời gian; Sensity (sử dụng thuật toán AI tiên tiến, phát hiện đa phương thức, giám sát thời gian thực để phát hiện các nội dung Deepfake); Microsoft Video AI Authenticator (công cụ phát hiện Deepfake video dựa trên AI của Microsoft); Reality Defender (dịch vụ phát hiện Deepfake thời gian thực, cung cấp cảnh báo về các nội dung giả mạo đang lưu hành trên mạng).
Nhiều dự án nghiên cứu khác cũng đang được thực hiện nhằm cải thiện khả năng phát hiện Deepfake. Các nhà nghiên cứu từ Đại học Stanford và Đại học California đã phát triển công cụ phát hiện dựa trên sự không nhất quán giữa âm thanh và chuyển động môi. Chính phủ Anh đã khởi động Deepfake Detection Challenge, tập hợp các chuyên gia từ chính phủ, công nghệ và học viện để giải quyết các vấn đề quan trọng liên quan đến phát hiện Deepfake. Ngoài ra, các công ty như PeakMetrics và Reality Defender cũng đã hợp tác để cung cấp giải pháp phát hiện Deepfake toàn diện, kết hợp khả năng phát hiện tiên tiến của Reality Defender với phân tích ngữ cảnh của PeakMetrics.
Mặc dù đã có nhiều tiến bộ, phát hiện Deepfake vẫn là một thách thức lớn do sự thay đổi nhanh chóng của công nghệ tạo giả mạo. Việc phòng, chống, ngăn chặn nguy cơ lừa đảo từ Deepfake đòi hỏi sự hợp tác từ nhiều phía, bao gồm cá nhân, tổ chức và chính phủ, để tạo ra một môi trường an toàn, đáng tin cậy trong kỷ nguyên số. Đặc biệt, mối nguy cơ từ Deepfake nói riêng và công nghệ AI nói chung đòi hỏi không chỉ một hành lang pháp lý đầy đủ mà còn cần cả những quy tắc đạo đức chặt chẽ để bảo đảm công nghệ tiên tiến phát huy những tác động tích cực và phòng ngừa những mặt hạn chế trong tương lai.