Mánh khóe lừa đảo từ công nghệ AI
AI phát triển mạnh tạo điều kiện cho tội phạm công nghệ gia tăng, đặc biệt là lừa đảo qua Deepfake.
Với sự phát triển nhanh chóng, mạnh mẽ của công nghệ trí tuệ nhân tạo, các ứng dụng AI tạo sinh (như Swapface, ChatGPT, Deepseek…) cho phép tạo video, hình ảnh, livestream thay đổi giọng nói, thay đổi khuôn mặt đã và đang ngày càng trở nên phổ biến. Bên cạnh những lợi ích tích cực, sự phát triển mạnh mẽ này cũng tạo điều kiện cho tội phạm liên quan đến AI tăng theo cấp số nhân trong thời gian qua, các vụ lừa đảo Deepfake liên tục xuất hiện với cấp độ từ sơ khai đến tinh vi, phức tạp.
Từ khuôn mặt của một người bình thường, qua phần mềm Deepfake có thể trở thành khuôn mặt của nhiều người nổi tiếng khác nhau. Độ sắc nét cao trong từng cử chỉ, hành động. Để làm được điều này, phần mềm sẽ phân tích hàng trăm điểm trên khuôn mặt gốc, sau đó tự động chỉnh sửa dựa trên khuôn mẫu của một người bất kỳ. Từ đây, các đối tượng xấu sẽ lợi dụng các đoạn video ngắn, hình ảnh giả mạo để thực hiện mục đích lừa đảo.
Chị Lưu Thúy An (quận Đống Đa) chia sẻ: "Anh trai tôi không dùng mạng xã hội, nhưng tôi lại nhận được cuộc gọi video hệt như anh trai mình. Giống đến từng chi tiết, thậm chí còn nói chuyện ngập ngừng như lỗi mạng,... để mình tin là thật. Tôi gọi điện cho anh tôi xác nhận lại thì mới biết là lừa đảo".
Theo các chuyên gia, cuộc gọi lừa đảo bằng công nghệ AI thường không kéo dài quá 1 phút. Nhưng trong vài chục giây, người dùng có thể bị rút sạch tiền mà không cần thực hiện thao tác chuyển tiền.
Một nạn nhân tại quận Nam Từ Liêm đã bị chiếm đoạt 371 triệu đồng khi nghe cuộc gọi và làm theo hướng dẫn của kẻ lừa đảo. Truy tìm từ những dấu vết, công an Thành phố Hà Nội đã nhanh chóng phát hiện, bắt giữ nhóm đối tượng lừa đảo hoạt động tại Campuchia với tổng số tiền chiếm đoạt hơn 158 tỷ đồng. Đáng nói, nhiều người Việt làm việc trong đường dây này chỉ cần đưa mặt vào điện thoại để xác thực chuyển khoản, không cần thực hiện bất kỳ thao tác nào vẫn được trả mức thu nhập 25 triệu đồng/tháng.
Bên cạnh việc lợi dụng AI để tạo cuộc gọi giả mạo, các đối tượng xấu còn cắt ghép khuôn mặt vào hình ảnh, video nhạy cảm. Sau đó sử dụng số điện thoại lạ nhắn tin cho vợ hoặc chồng của nạn nhân để gửi kèm một đường link. Hình ảnh nhạy cảm cùng đường dẫn lạ khiến đối phương thiếu cảnh giác, tò mò ấn vào, thực hiện theo yêu cầu của các đối tượng. Chỉ trong vài giây ngắn ngủi chạm vào màn hình, các đối tượng dễ dàng đánh cắp thông tin tài khoản và chiếm quyền kiểm soát điện thoại của người dùng.
Ông Vũ Ngọc Sơn - Ủy viên Ban Chấp hành Hiệp hội An ninh mạng Quốc gia cho biết: "Về bản chất, những đối tượng lừa đảo chỉ cần thu thập hình ảnh liên quan đến khuôn mặt và thông qua các hình ảnh ở các góc khác nhau, các đối tượng có thể trích xuất ra được đặc trưng khuôn mặt, từ đó đưa vào phần mềm công nghệ deepfake và sử dụng cho các mục đích xấu. Vì vậy những clip giả mạo ra đời rất nhanh và sau đó được sử dụng vào kịch bản lừa đảo".
Hiện nay, mạng xã hội đang nổi lên những trào lưu độc lạ, dùng một bức ảnh của bản thân để ghép vào các video có sẵn. AI tạo ra sự thú vị, sinh động khi người dùng càng trải nghiệm, càng muốn ghép mặt của mình vào nhiều bối cảnh khác nhau. Tuy nhiên, hành động tải lên ảnh cũng là cách chúng ta cung cấp dữ liệu khuôn mặt miễn phí cho bên thứ ba không quen biết.
Các hình thức lừa đảo trên không gian mạng ngày càng tinh vi, khó lường và không chỉ giới hạn trong môi trường trực tuyến mà còn kết hợp với công nghệ AI mở rộng sang những video, cuộc gọi, tin nhắn. Đây đều là những phương thức cũ nhưng thủ đoạn mới được đối tượng thường xuyên thay đổi, xoay chuyển, biến tấu đa đạng.
Nguồn Hà Nội TV: https://hanoionline.vn/video/manh-khoe-lua-dao-tu-cong-nghe-ai-337458.htm