Tội phạm tình dục sử dụng deepfake 'tràn lan' trong trường học ở Hàn Quốc

Tội phạm tình dục sử dụng deepfake đang gia tăng tại các trường học ở Hàn Quốc, trở thành một đại dịch trong giới trẻ.

Tội phạm tình dục sử dụng deepfake đang gia tăng tại các trường học ở Hàn Quốc. Ảnh minh họa: Getty Image

Tội phạm tình dục sử dụng deepfake đang gia tăng tại các trường học ở Hàn Quốc. Ảnh minh họa: Getty Image

Theo Sở cảnh sát Seogwipo, một học sinh tại một trường quốc tế ở thành phố Jeju đã bị giao cho các công tố viên vì bị cáo buộc quay video bóc lột tình dục các nữ sinh cùng lứa. Cảnh sát cũng chuyển 3 người bạn cùng lớp đã xem video cùng nam sinh này đến cơ quan công tố.

Sau khi cảnh sát tiến hành giám định kỹ thuật số trên máy tính xách tay và điện thoại di động của nam sinh, số nạn nhân đã tăng từ hai lên 11.

Một tuần trước, cảnh sát đã mở cuộc điều tra về báo cáo về tội phạm deepfake tại một trường tiểu học ở Gunsan, tỉnh Jeolla Bắc, nơi khuôn mặt của một đứa trẻ đã được chỉnh sửa thành một hình ảnh khác bằng trí tuệ nhân tạo.

Theo "Báo cáo kết quả khảo sát bắt nạt trên mạng năm 2023" của Ủy ban Truyền thông Hàn Quốc, 10% trong số 9.000 học sinh từ lớp 4 tiểu học đến học sinh cuối cấp trung học trên toàn quốc đã chứng kiến tội phạm tình dục trên mạng.

Tỉ lệ chứng kiến hành vi phát tán video bất hợp pháp là 6,7%, tăng 0,9 điểm % so với năm ngoái và tỉ lệ làm nhục người quen cũng tăng lên 5,2%.

Phân tích của Cơ quan Cảnh sát Thủ đô Seoul về bạo lực học đường và tội phạm vị thành niên trong nửa đầu năm nay cũng cho thấy có 662 báo cáo về bạo lực tình dục và quấy rối tình dục, tăng 161,7 % so với cùng kỳ năm ngoái. Trong số này, có 20 báo cáo là deepfake.

Deepfake là thuật ngữ được tạo nên với sự kết hợp giữa "deep learning" và "fake" (giả mạo), dùng để chỉ các video siêu thực được tạo ra hoặc chỉnh sửa bằng kỹ thuật số để giống hoặc thay thế khuôn mặt của người thật. Bằng cách xử lý các cảnh quay thực và âm thanh có vẻ chân thực, các sản phẩm từ deepfake thường khó phát hiện, khiến nạn nhân dễ bị tổn thương hơn.

Mặc dù vào năm 2020, Đạo luật đặc biệt về trừng phạt tội phạm bạo lực tình dục đã được ban hành để trừng phạt nội dung bất hợp pháp, nhưng tội phạm sử dụng công nghệ deepfake gần đây đã trở thành một đại dịch trong giới trẻ.

Theo kết quả truy quét video giả mạo bất hợp pháp của Cơ quan Cảnh sát quốc gia Hàn Quốc, 65 trong số 94 nghi phạm có độ tuổi từ 19 trở xuống, chiếm gần 70%.

"Khi những người trẻ tuổi quen thuộc với các thiết bị thông minh và đã phát triển các kỹ năng của mình, việc tạo ảnh và video deepfake trở nên dễ dàng hơn đối với họ", một viên chức cảnh sát giải thích.

Nguồn: The Korea Herald

Mộc Đức

Nguồn Công dân & Khuyến học: https://congdankhuyenhoc.vn/toi-pham-tinh-duc-su-dung-deepfake-tran-lan-trong-truong-hoc-o-han-quoc-179240731162850855.htm