Mối họa từ những bức ảnh khỏa thân giá 25.000 đồng ở Việt Nam
Với một số tiền nhỏ, kẻ gian có thể thuê các dịch vụ deepfake để tạo ảnh giả, trực tiếp xâm phạm danh dự, nhân phẩm của người khác.
Gần đây, nghệ sĩ Việt Nam trở thành nạn nhân của deepfake. Một tài khoản Twitter đăng tải hình ảnh khỏa thân, được chỉnh sửa bằng AI của nhiều sao nam nổi tiếng. Chủ tài khoản còn sử dụng những ngôn từ dung tục, phản cảm khi mô tả hình ảnh.
Không chỉ người nổi tiếng, bất kỳ ai cũng dễ dàng trở thành nạn nhân của deepfake. Thông qua ứng dụng nhắn tin ẩn danh, nhiều kẻ chào bán dịch vụ chỉnh sửa ảnh AI khỏa thân với giá rẻ.
Bằng số tiền nhỏ, một tấm ảnh "trần truồng" của người bất kỳ có thể được tạo ra từ nội dung đăng tải trên mạng xã hội. Kẻ gian có thể sử dụng những hình ảnh này cho mục đích xấu, xâm phạm danh dự, nhân phẩm của người khác.
25.000 đồng cho một tấm ảnh khỏa thân
Các công cụ dùng AI, deepfake để tạo ảnh khỏa thân hiện rất phổ biến, không được quản lý. Vì tính chất nhạy cảm, những người đứng sau website dạng này thường ẩn danh, hạn chế phương thức thanh toán. Bitcoin hay những loại “máy trộn” tiền số là kênh trả tiền dịch vụ chủ yếu.
Do đó, tại Việt Nam xuất hiện hình thức nhận tạo ảnh khỏa thân hộ. Trên ứng dụng nhắn tin Telegram có nhiều nhóm được lập ra để rao bán các dịch vụ này. “Chào mừng bạn tham gia Nhóm F****. Sau đây là giá dịch vụ của mình, bạn có thể tham khảo. Lột đồ 25.000 đồng/ảnh. Vào nhóm lột đồ showbiz, TikTok 20.000 đồng”, chủ kênh Telegram quảng cáo.
Những nhóm chat này còn cung cấp nhiều dịch vụ đồi trụy khác, bảng giá dao động 20.000-50.000 đồng.
Để quảng cáo, tăng uy tín cho dịch vụ của mình, chủ kênh này còn đăng tải hàng trăm tấm ảnh khỏa thân tạo từ AI của nhiều người khác nhau. Trong đó, đa phần là hình ảnh nữ giới, được “lột đồ” theo đơn đặt hàng. Nạn nhân của deepfake trong nhóm chat này phần lớn là người bình thường, không phải nhân vật nổi tiếng, ở nhiều độ tuổi khác nhau.
Theo ghi nhận của phóng viên, các hình ảnh được yêu cầu chỉnh sửa là các ảnh đời thường, được đăng tải trên mạng xã hội. Tuy nhiên, qua xử lý của công cụ AI đồi trụy, bức hình bị thay đổi thành nội dung khỏa thân, xâm phạm danh dự, nhân phẩm của các nạn nhân.
Với sự phát triển của AI, deepfake, những bức ảnh tạo ra từ công cụ này có độ chi tiết, chân thực cao. Công nghệ tái tạo các bộ phận, chi tiết, màu sắc với tỷ lệ hợp lý, như thật. Người bình thường khó nhận ra những tấm ảnh đồi trụy này đã qua chỉnh sửa.
Ngoài Telegram, những hội nhóm, tài khoản chuyên nhận tạo ảnh khỏa thân bằng AI, hoặc mua, bán ảnh đồi trụy deepfake còn xuất hiện trên Twitter. Đây vốn là những nền tảng không kiểm soát chặt các nội dung 18+.
Mặt khác, các công cụ tạo ảnh khỏa thân như D*****de, D****kebe... có thể dễ dàng được truy cập tại Việt Nam. Có trang còn hỗ trợ cả tiếng Việt, các bước tạo ảnh dễ dàng, chi phí dưới 10 USD/tháng.
Mối nguy hiện diện
Vấn nạn bị chỉnh sửa hình ảnh khỏa thân đã xuất hiện ở nhiều nước. Lauren Book, nhà lập pháp ở bang Florida, Mỹ phát hiện những bức ảnh bản thân đang để ngực trần bị phát tán trên mạng hồi tháng 11/2022. Có kẻ đã cố tình tạo ra những nội dung này để tống tiền, khủng bố bà Book.
Sau sự vào cuộc của cảnh sát, kẻ phát tán những tấm ảnh đã bị bắt. Đáng nói, những nội dung deepfake của chính trị gia nói trên đã xuất hiện, được mua bán từ 3 năm trước.
Tiến sĩ Chris Pierson, Giám đốc Điều hành của công ty an ninh mạng BlackCloak, nói rằng sự xuất hiện của công nghệ mới đồng nghĩa với việc dữ liệu, tài sản kỹ thuật số và hình ảnh bị đánh cắp dễ dàng hơn. Ngoài ra, nguồn lực hiện tại không đủ để truy lùng những kẻ phạm tội hoặc xác định mức độ lan truyền của nội dung deepfake.
Tại Việt Nam, những hình ảnh đồi trụy từ AI có thể bị sử dụng với nhiều mục đích, gồm cả làm nhục hoặc gây áp lực để đòi nợ… Trả lời Zing, ông Ngô Minh Hiếu, chuyên gia bảo mật của chongluadao.vn, cho biết những ứng dụng đổi mặt hoặc “lột đồ” khá phổ biến, dễ dàng được tìm thấy trên Internet.
“Người dùng phát hiện mình bị giả mạo hình ảnh nên báo cáo cho cơ quan chức năng để được bảo vệ quyền lợi hợp pháp”, ông Hiếu nói.
Ngoài ra, ông Hiếu khuyên người dùng nên cẩn trọng khi chia sẻ hình ảnh trên mạng xã hội. Vì những nội dung này có thể trở thành tài nguyên cho kẻ gian tạo ảnh đồi trụy, thông qua deepfake.
Theo công ty nghiên cứu Sensity AI, đến nay có từ 90-95% các video deepfake trực tuyến mang nội dung tình dục, giả mạo và không có sự đồng ý của nhân vật.
Nguồn Znews: https://zingnews.vn/moi-hoa-deepfake-khoa-than-hien-dien-tai-viet-nam-post1423217.html