Ai cũng có thể là nạn nhân của deepfake khiêu dâm
Nhiều người, kể cả ngôi sao và người thường bị ghép hình vào các video khiêu dâm, khiến cuộc sống khốn khổ. Liệu có giải pháp công nghệ nào chống được deepfake?
Khi Gabi Belle (26 tuổi) nhìn thấy ảnh khỏa thân của mình bị lan truyền khắp nơi trên mạng, người cô bỗng lạnh như băng. Là một influencer trên YouTube nhưng cô chưa bao giờ chụp ảnh trên cánh đồng mà không mặc quần áo. Bởi vậy, Belle biết nó chắc chắn là giả.
Nhưng khi nhắn tin nhờ một người bạn xóa những tấm ảnh này, cô gái mới vỡ lẽ rằng trên mạng có gần 100 bức ảnh giả của mình trông như thế này. Đa số chúng được đăng trên các trang web khiêu dâm nổi tiếng, được dán nhãn là do AI tạo ra. Mặc dù các website này đã bị gỡ xuống hồi tháng 7, những hình ảnh phản cảm này vẫn liên tục được tạo mới.
“Tôi thấy như mình đang bị quấy rối”, Belle bộc bạch. “Những ảnh nhạy cảm đó không được phép lan truyền rộng rãi vì không hề có sự đồng ý của tôi. Chẳng hiểu tại sao lại có người dùng AI để giả mạo ảnh tôi”, cô gái chia sẻ với Washington Post.
Với AI, bạn có thể “cởi quần áo” bất cứ ai
Trên thực tế, Gabi Belle không phải nạn nhân duy nhất của ảnh giả do AI tạo ra. Theo phân tích của nhà nghiên cứu Genevieve Oh, hơn 143.000 video deepfake mới đã được đăng trực tuyến trong năm nay. Con số này vượt qua số liệu mọi năm cộng lại.
Các chuyên gia cho biết nguyên nhân khiến ảnh fake tràn lan trên Internet là bởi các công cụ AI ngày càng rẻ tiền và dễ sử dụng. Với các app “Hoán đổi khuôn mặt” có sẵn trong App Store hay Play Store, kể cả một người không rành về công nghệ cũng có thể tạo ảnh giả.
Deepfake nguy hiểm bởi có thể “cởi quần áo” bất cứ ai, phân tích cơ thể trần truồng của họ trông như thế nào. Từ đó, chúng sẽ tạo thành hình ảnh hay thậm chí ghép khuôn mặt vào để thành video khiêu dâm.
Theo Gang Wang - chuyên gia về AI tại Đại học Illinois - chia sẻ với Washington Post, sau khi phân tích hàng triệu hình ảnh, AI đã rất thành thạo trong việc dự đoán cơ thể một người sẽ trông như thế nào, sau đó ghép mặt vào một video khiêu dâm một cách trôi chảy.
Nghiên cứu trên 10 trang web hàng đầu lưu trữ ảnh khiêu dâm do AI tạo ra, Genevieve Oh kết luận số lượng ảnh khỏa thân giả đã tăng hơn 290% kể từ năm 2018. Các trang web này thường xuyên làm giả ảnh của những người nổi tiếng.
Hồi tháng 10, tài tử Tom Hanks nói trên mạng xã hội rằng hãy cảnh giác với những hình ảnh AI của anh ấy trôi nổi trên Internet. Cùng ngày hôm đó, MrBeast - YouTuber sở hữu 188 triệu người theo dõi - cho biết nhiều nhóm lừa đảo đang sử dụng hình ảnh của anh ấy nhưng thực tế chúng đều do AI làm giả.
Những người quanh bạn cũng có thể là nạn nhân
Không chỉ người nổi tiếng, những người bình thường cũng có thể vào tầm ngắm của nhóm người xấu. Hồi tháng 5/2023, một diễn đàn khiêu dâm nổi tiếng xuất hiện một bài đăng có tựa đề “Tôi có thể giả mạo crush của bạn”. “Gửi cho tôi ảnh của một người bất kỳ bạn muốn xem ảnh khỏa thân. Tôi có thể giả mạo họ”, người này viết.
Chỉ trong vòng vài giờ, những bức ảnh về phụ nữ tràn ngập bên dưới phần bình luận. “Ảnh cô gái này có thể làm được không? Cô ấy không phải là người nổi tiếng đâu”, một người hỏi. “Đồng nghiệp của tôi và hàng xóm của tôi thì sao?”, một người khác bình luận.
Vài phút sau, một phiên bản khỏa thân từ hình ảnh ban đầu xuất hiện. “Cảm ơn rất nhiều, ảnh quá hoàn hảo”, một người dùng trả lời.
Một nghiên cứu năm 2019 của Sensity AI cho thấy 96% hình ảnh deepfake là nội dung khiêu dâm và 99% những bức ảnh đó nhắm mục tiêu đến phụ nữ. Các nạn nhân bị những kẻ xấu này đe dọa, làm nhục để tống tiền hoặc thỏa mãn những ảo tưởng cá nhân.
"Mục tiêu của chủ yếu là nhắm vào các cô gái, nhất là những người không được công chúng biết đến”, Sophie Maddocks - nhà nghiên cứu tại Đại học Pennsylvania - cho biết.
Tâm sự với Washington Post, Miriam Al Adib Mendiri cho biết cô con gái 14 tuổi của cô cũng là nạn nhân xấu số của trào lưu deepfake này. Cô bé rất hoảng hốt khi nhìn thấy bức ảnh mình khỏa thân đăng trên mạng bởi cô chưa bao giờ chụp ảnh như vậy.
Hóa ra, thủ phạm lại ở rất gần. Một nhóm nam sinh trong khu đã lấy ảnh profile các cô gái sống cùng thị trấn và dùng ứng dụng “khỏa thân AI” để tạo ra những bức ảnh đồi trụy, cảnh sát địa phương cho biết.
Quy định lỏng lẻo tạo kẽ hở cho kẻ xấu
Trước con số nạn nhân ngày càng tăng, nhiều ứng dụng đã tuyên bố chặn người dùng tạo hình ảnh khiêu dâm bằng AI như Stable Diffusion. Song, vì chúng đều là mã nguồn mở nên các nhà lập trình từ nghiệp dư đến chuyên nghiệp cũng có thể tùy biến để phục vụ các mục đích bất chính.
Các ứng dụng được tùy biến này sẽ tung ra ưu đãi giới thiệu nhằm khuyến khích người dùng chia sẻ ảnh deepfake trên mạng xã hội để đổi lấy tiền mặt.
Trên 10 trang web hàng đầu đăng ảnh khiêu dâm AI, hơn 415.000 hình ảnh đã được tải lên trong năm nay, thu hút gần 90 triệu lượt xem. Trong khi đó, tính đến tháng 9/2023, hơn 26.800 người đã trở thành nạn nhân của các vụ tống tiền bằng ảnh nhạy cảm, tăng 149% so với năm 2019, FBI cho biết.
Các nền tảng lớn như Google cũng có chính sách ngăn chặn các hình ảnh khiêu dâm xuất hiện trong kết quả tìm kiếm. Song, chính sách dành cho hình ảnh giả mạo bằng AI lại không mạnh mẽ bằng. Nội dung khiêu dâm deepfake hay các công cụ AI vẫn xuất hiện top đầu trên Google Search.
Gabi Belle - nạn nhân của deepfake - cũng không biết rõ có bao nhiêu bức ảnh deepfake của mình được lan truyền trên Internet. Cô cho rằng cần có những quy định mạnh mẽ hơn để giải quyết trường hợp tương tự. “Là phụ nữ, bạn không hề an toàn”, cô nói với Washington Post.
Nguồn Znews: https://znews.vn/ai-cung-co-the-la-nan-nhan-cua-deepfake-khieu-dam-post1448109.html