Hơn 100.000 phụ nữ bị tấn công bằng ảnh khiêu dâm giả mạo

Kẻ xấu đã sử dụng công nghệ Deepfake và AI để tạo ra ảnh cũng như nội dung video khiêu dâm giả mạo những phụ nữ này, gây hại cho danh dự của nạn nhân.

Kẻ xấu đã sử dụng công nghệ Deepfake và AI để tạo ra ảnh "nóng" tấn công nạn nhân nữ. Ảnh: ABC

Những hình ảnh nạn nhân được kẻ xấu chia sẻ, phát tán lên Telegram cho thấy phần quần áo đã bị xóa, thay bằng hình ảnh mang tính khiêu dâm. Để có được những hình ảnh này, kẻ xấu đã sử dụng kỹ thuật deepfake, đây là kỹ thuật quét khuôn mặt của một người, sau đó sử dụng AI để tạo ra video với các chi tiết trên khuôn mặt giống như thật.

Trước đó, công nghệ này từng được ứng dụng để tạo ra các đoạn phim khiêu dâm giả mạo người nổi tiếng, nhưng chưa hề có trường hợp nào ứng dụng với người bình thường, vào năm ngoái, một ứng dụng tương tự có tên DeepNude đã bị gỡ bỏ sau vài tiếng ra mắt.

Rất nhiều ảnh "nóng" của nạn nhân nữ bị chia sẻ công khai. Ảnh: The Irish Times

Theo số liệu của Sensity, từ tháng 7/2019 đến nay đã có khoảng 104.852 phụ nữ đã trở thành nạn nhân của hành vi giả mạo ảnh "nóng" và bị phát tán công khai chúng, một số nạn nhân là trẻ dưới tuổi vị thành niên, cho thấy người dùng Telegram đã truy cập dịch vụ làm giả ảnh để tạo và chia sẻ nội dung ấu dâm.

Thậm chí dịch vụ này còn được quảng cáo ngang nhiên trên mạng xã hội VK tại Nga, phần lớn người dùng đến từ các quốc gia từng thuộc Liên bang Xô Viết. Tuy nhiên, VK phản đối rằng họ không cho phép chia sẻ nội dung hay liên kết tương tự và sẽ chặn những đối tượng có ý đồ xấu. Trước đó, ứng dụng tin nhắn Telegram đã bị cấm tại Nga vào đầu năm nay.

Nguồn Công Luận: https://congluan.vn/hon-100000-phu-nu-bi-tan-cong-bang-anh-khieu-dam-gia-mao-post102369.html