Tái diễn lừa đảo bằng công nghệ Deepfake
Theo Trung tâm giám sát an toàn không gian mạng quốc gia (Cục An toàn thông tin, Bộ Thông tin và Truyền thông), thời gian qua, hình thức lừa đảo bằng công nghệ Deepfake đang có tình trạng tái diễn. Các đối tượng tội phạm mạng này thường sử dụng các cuộc gọi video để mạo danh cá nhân và vay mượn người thân, bạn bè của họ.
Cụ thể, đối tượng làm giả hoặc chiếm đoạt tài khoản của người dùng mạng xã hội, liên lạc với người thân trong danh sách bạn bè và đưa ra 1 lý do cần tiền có việc gấp. Sau đó, đối tượng sử dụng công nghệ Deepfake và thực hiện cuộc gọi video để nạn nhân tưởng rằng đang nói chuyện với người thân của mình và nhu cầu vay tiền là có thật, từ đó chuyển tiền cho các đối tượng.
Trước tình trạng trên, Cục An toàn thông tin khuyến cáo người dùng có thể dùng chính các công cụ AI để nhận diện Deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo. Đối với video Deepfake, một số công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Đặc biệt, Cục an toàn thông tin khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP và không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo.
Nguồn Hà Nội TV: https://hanoionline.vn/video/tai-dien-lua-dao-bang-cong-nghe-deepfake-235361.htm