Tội phạm tình dục số tăng vọt tại Hàn Quốc vì deepfake, AI
Hơn 1.300 vụ tội phạm tình dục số liên quan đến công nghệ deepfake được ghi nhận tại Hàn Quốc năm 2024, phần lớn nạn nhân là thanh thiếu niên, thậm chí có cả trẻ em dưới 10 tuổi.
Hàn Quốc đang chứng kiến sự gia tăng đáng báo động của tội phạm tình dục trên không gian mạng, đặc biệt liên quan đến công nghệ deepfake - kỹ thuật sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh, video giả mang nội dung khiêu dâm.
Được biết, số vụ việc trong năm 2024 đã tăng gấp hơn 3 lần so với năm trước, phản ánh mức độ phổ biến và dễ tiếp cận của công nghệ AI trong xã hội, đặc biệt là giới trẻ, SCMP đưa tin.

Người biểu tình kêu gọi các biện pháp ngăn chặn tội phạm tình dục kỹ thuật số deepfake gần Ga Gangnam, Seoul (Hàn Quốc) vào tháng 8/2024. Ảnh: News1.
Theo thống kê do Bộ Bình đẳng Giới và Gia đình phối hợp cùng Viện Nhân quyền Phụ nữ Hàn Quốc công bố, Trung tâm Hỗ trợ Nạn nhân Tội phạm Tình dục Số đã tiếp nhận 1.384 trường hợp báo cáo về hình ảnh bị chỉnh sửa sử dụng trong tội phạm tình dục số trong năm 2024. Con số này tăng mạnh so với 423 vụ được ghi nhận vào năm 2023.
Đáng lo ngại, có tới 92,6% nạn nhân là người trẻ đang ở độ tuổi thanh thiếu niên, trong đó không ít trường hợp là học sinh tiểu học. Theo bà Park Sung-hye, phụ trách bộ phận hỗ trợ xóa nội dung vi phạm tại trung tâm, hiện tượng học sinh, sinh viên tiếp cận và sử dụng công cụ AI để tạo ảnh deepfake mang tính chất khiêu dâm đang diễn ra ngày một phổ biến.
“Chúng tôi thậm chí nhận được báo cáo từ các bậc phụ huynh về việc con em họ - mới chỉ 9, 10 tuổi - sử dụng AI để chỉnh sửa hình ảnh của bạn học, giáo viên rồi chia sẻ trên mạng như một trò đùa”, bà Park cho biết trên Korea JoongAng Daily.
Không ít thủ phạm là người quen biết nạn nhân. Một vụ việc điển hình xảy ra tại một trường đại học, khi một nghiên cứu sinh 24 tuổi cùng 14 đồng phạm đã sử dụng công nghệ deepfake để ghép mặt các nữ sinh vào ảnh khỏa thân rồi phát tán trên nền tảng nhắn tin Telegram. Vụ việc gây chấn động cộng đồng sinh viên và đặt ra câu hỏi nghiêm trọng về đạo đức của giới trẻ trong thời đại số.
Theo bà Park, trong những năm 2018 khi trung tâm mới đi vào hoạt động, hình ảnh giả chủ yếu chỉ là dạng chỉnh sửa đơn giản - như thêm chú thích gợi dục. Tuy nhiên, cùng với sự phát triển nhanh chóng của AI và khả năng tiếp cận công nghệ cao của giới trẻ, các nội dung giả mạo ngày càng tinh vi, khó phân biệt với ảnh thật, khiến nạn nhân rơi vào khủng hoảng tâm lý nghiêm trọng, The Korea Times cho biết.
Tổng số người tìm đến Trung tâm Hỗ trợ trong năm 2024 cũng tăng mạnh, đạt 10.305 trường hợp, tăng 14,7% so với năm 2023. Trong số đó, 72,1% là phụ nữ. Những người này được hỗ trợ xóa bỏ nội dung vi phạm, tư vấn tâm lý và chuyển hồ sơ sang cơ quan điều tra nếu cần thiết.
Trung tâm cho biết đã hỗ trợ xóa bỏ tổng cộng hơn 300.000 nội dung khiêu dâm bất hợp pháp trong năm qua. Các trang web nội dung người lớn chiếm tới 43% nền tảng lưu trữ, song nền tảng nhắn tin Telegram cũng đang trở thành “điểm nóng” cho tội phạm tình dục số.
Trước áp lực từ dư luận và chính quyền, năm 2023, Telegram đã phải thiết lập đường dây nóng với cơ quan quản lý truyền thông và cảnh sát Hàn Quốc để hỗ trợ điều tra các vụ việc liên quan đến nội dung deepfake khiêu dâm.
Đầu năm 2025, cảnh sát Seoul đã triệt phá một đường dây tội phạm tình dục số hoạt động trên Telegram. Vụ án được đánh giá là một trong những lớn nhất từ trước đến nay trong lĩnh vực này. 14 thành viên bị bắt giữ với cáo buộc phát tán nội dung khiêu dâm deepfake và các video lạm dụng tình dục thật của 234 nạn nhân suốt 4 năm qua.