Thủ đoạn dùng AI dẫn dụ 'chat nhạy cảm' rồi tống tiền, người độc thân cảnh giác
Công an TP Hà Nội và TP.HCM vừa đưa ra cảnh báo về thủ đoạn dụ dỗ 'chat nhạy cảm' để cưỡng đoạt tài sản trên mạng xã hội. Trong đó, các đối tượng còn sử dụng công nghệ AI để tạo ra hình ảnh giả.
Theo Công an TP Hà Nội, thời gian qua xuất hiện nhiều tài khoản mạng xã hội (Facebook, Telegram…) với những hình ảnh đại diện là hình phụ nữ trẻ, đẹp, ăn mặc khiêu gợi, nhắn tin dụ dỗ nhiều người “chat nhạy cảm” để cưỡng đoạt tài sản.
Thủ đoạn của các đối tượng là nhắn tin tán tỉnh và gửi cho bị hại những hình ảnh hở hang, clip nhạy cảm rồi dụ dỗ bị hại “chat nhạy cảm”.
Quá trình “chat nhạy cảm”, các đối tượng sẽ bí mật quay lại màn hình. Sau khi có được những hình ảnh, video này, các đối tượng sẽ yêu cầu bị hại phải chuyển tiền và đe dọa phát tán những nội dung này cho bạn bè, người thân, đồng nghiệp của bị hại hoặc phát tán lên mạng xã hội.
Nếu bị hại chuyển tiền theo hướng dẫn của các đối tượng, chúng lại tiếp tục yêu cầu bị hại chuyển thêm tiền với số tiền càng ngày càng tăng cho đến khi bị hại không còn khả năng tài chính.
Vì lo sợ ảnh hưởng đến uy tín, danh dự nên hầu hết các nạn nhân đều ngại, không dám trình báo cơ quan công an.
Công an TP Hà Nội đề nghị người dân cảnh giác khi nhận được lời mời, tin nhắn kết bạn từ người lạ trên mạng xã hội, đặc biệt là các tài khoản dụ dỗ “chat nhạy cảm”.
Trường hợp bị đe dọa yêu cầu chuyển tiền qua hình thức nêu trên, người dân cần đến ngay cơ quan công an nơi gần nhất để được hướng dẫn, giải quyết theo quy định của pháp luật.
Dùng công nghệ AI để dẫn dụ "chat nhạy cảm”
Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (Công an TP.HCM) cũng đưa ra cảnh báo về tình trạng nhiều đối tượng lợi dụng công nghệ AI (trí tuệ nhân tạo) để dẫn dụ “chat nhạy cảm” rồi tống tiền.
Theo đó, các đối tượng sử dụng tính năng kết bạn, hẹn hò online… của các nền tảng và ứng dụng mạng xã hội để tìm cách làm quen qua mạng với nạn nhân.
Để tạo lòng tin với nạn nhân, các đối tượng có thể sử dụng các hình ảnh thật, thông tin thật lấy của những diễn viên hay các người mẫu chia sẻ trên mạng xã hội, sử dụng công nghệ AI deepfake (một phương thức tạo ra các sản phẩm công nghệ giả dưới dạng âm thanh, hình ảnh, video) để tạo cuộc gọi video call theo thời gian thật tương tác thật với nạn nhân.
Hiện nay có rất nhiều công cụ thực hiện công nghệ deepfake với khả năng hoán đổi khuôn mặt có độ chân thực cao. Bằng cách sử dụng các thuật toán tiên tiến, các công nghệ đảm bảo mỗi giao dịch hoán đổi duy trì vẻ ngoài tự nhiên, không có dấu hiệu rõ ràng về thao tác kỹ thuật số do đó rất khó phát hiện bằng mắt thường.
Khi đã tạo được lòng tin và kết bạn với nạn nhân, các đối tượng sẽ tìm cách khai thác, thu thập các thông tin đời tư, cá nhân, các mối quan hệ, các tài khoản mạng xã hội… để sử dụng khống chế nạn nhân sau này.
Nguy hiểm hơn, chúng có thể dẫn dụ nạn nhân cài các ứng dụng (App) game, giải trí hay đầu tư… để qua đó cài đặt các mã độc vào máy điện thoại nạn nhân nhằm khai thác các thông tin trong danh bạ, thư viện hình ảnh, email, tài khoản ngân hàng…
Sau đó, các đối tượng sẽ lợi dụng lúc nạn nhân có chuyện buồn, cô đơn hoặc khi say xỉn… để dẫn dụ nạn nhân “chat nhạy cảm”.
Khi video call chúng dùng AI để ghép mặt vào các clip nhằm làm nạn nhân lầm tưởng đang trao đổi với người thực. Sau đó, chúng dùng các ứng dụng quay chụp màn hình để làm tư liệu khống chế nạn nhân.
Một số nạn nhân do lo sợ bị tiết lộ ảnh hưởng đến uy tín danh dự đã chấp nhận trả tiền nhưng cuối cùng vẫn bị tung thông tin, hình ảnh lên mạng xã hội hoặc bị các đối tượng chiếm quyền điện thoại để chiếm đoạt hết tiền trong tài khoản ngân hàng cá nhân.
Công an TP.HCM khuyến cáo người dân, nhất là nam giới, phụ nữ độc thân về hiện tượng lừa đảo làm quen trên mạng xã hội sử dụng công nghệ AI trên.
Khi kết bạn trên mạng, người dân cần chú ý các biện pháp sau:
Nâng cao ý thức bảo vệ dữ liệu cá nhân, không chia sẻ hình ảnh cá nhân quá nhiều.
Tuyệt đối không quay hoặc chia sẻ hình ảnh, clip có nội dung nhạy cảm.
Chú ý khi tham gia kết bạn, làm quen, hẹn hò trên mạng cần phải kiểm chứng ngoài thực tế.
Khi trở thành nạn nhân, tuyệt đối không chuyển tiền mà cần trình báo ngay cơ quan công an nơi cư trú để được giúp đỡ.