Thủ đoạn lừa đảo mới bằng công nghệ deepfake

Không chỉ sử dụng hình ảnh giả mạo người thân quen để yêu cầu chuyển tiền, các đối tượng lừa đảo đã dùng hình ảnh cắt ghép để bôi nhọ danh dự nhằm mục đích tống tiền nạn nhân.

Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam - VAFC mới đây đã nhận được phản ánh từ ông Q.T.L về việc ông bị một số đối tượng phát tán trên mạng xã hội những hình ảnh giả mạo được cắt ghép, xử lý qua công nghệ deepfake, với mục đích bôi nhọ danh dự, nhân phẩm và uy tín cá nhân.

Các đối tượng sử dụng những hình ảnh giả mạo để thực hiện hành vi tống tiền, yêu cầu ông Q.T.L chuyển tiền vào ví điện tử của chúng và liên hệ qua email để xác nhận.

Các đối tượng sử dụng công nghệ deepfake cắt ghép ảnh nhạy cảm để tống tiền nạn nhân

Các đối tượng sử dụng công nghệ deepfake cắt ghép ảnh nhạy cảm để tống tiền nạn nhân

Đây là một hình thức lừa đảo sử dụng công nghệ deepfake với thủ đoạn mới để thực hiện hành vi sai phạm. Hiện vụ việc đang được cơ quan chức năng điều tra làm rõ.

Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video, trong đó khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video, âm thanh của người khác.

Với sự phát triển của AI (trí tuệ nhân tạo), hiện nay công nghệ deepfake đang trở thành công cụ nguy hiểm cho tội phạm tống tiền trực tuyến. Việc dễ dàng tiếp cận công nghệ này cùng với sự gia tăng của các nền tảng mạng xã hội đã tạo điều kiện thuận lợi cho các đối tượng xấu lợi dụng để thực hiện hành vi vi phạm pháp luật.

Thủ đoạn của các nhóm lừa đảo theo hình thức mới này là sử dụng hình ảnh, thông tin cá nhân của nạn nhân được chia sẻ trên mạng và dùng kỹ thuật cắt ghép hình ảnh nạn nhân vào các video clip nhạy cảm. Sau đó, đối tượng sẽ nhắn tin, gọi điện đe dọa, tống tiền nạn nhân bằng hình ảnh giả mạo.

Một số nạn nhân còn bị các tổ chức lừa đảo giả danh là thám tử tư gọi điện thoại thông báo về việc phát hiện người này có mối quan hệ bất chính với những người phụ nữ khác. Đối tượng gửi cho nạn nhân các hình ảnh nhạy cảm đã được chỉnh sửa, cắt ghép có sử dụng hình ảnh khuôn mặt của nạn nhân.

Sau đó, các đối tượng lừa đảo yêu cầu nạn nhân phải chuyển một khoản tiền điện tử với giá trị tương đương hàng tỷ đồng vào ví điện tử để không bị đăng lên mạng xã hội. Khi nạn nhân "sập bẫy", các đối tượng sẽ hướng dẫn mua tiền điện tử, chuyển đến các tài khoản ví điện tử theo chỉ định để chiếm đoạt.

Để phòng ngừa thủ đoạn lừa đảo mới này, người sử dụng Internet cần cẩn trọng với những yêu cầu kết bạn từ người lạ trên mạng xã hội; không chia sẻ thông tin cá nhân, hình ảnh, video riêng tư với người không quen biết; kiểm tra kỹ nguồn gốc thông tin, hình ảnh, video trước khi chia sẻ. Ngoài ra, khi phát hiện các trường hợp nghi ngờ lừa đảo, tống tiền bằng deepfake, người dân cần báo ngay cho cơ quan chức năng.

Trường hợp người dân đã trở thành nạn nhân của hình thức lừa đảo, tống tiền bằng hình ảnh, video giả mạo được tạo ra từ việc sử dụng công nghệ deepfake, cần giữ lại tất cả bằng chứng liên quan như tin nhắn, email, hình ảnh, video...; không chuyển tiền cho kẻ tống tiền và liên hệ ngay với cơ quan công an gần nhất để được hỗ trợ.

T.V

Nguồn ANTĐ: https://anninhthudo.vn/thu-doan-lua-dao-moi-bang-cong-nghe-deepfake-post586301.antd