Cảnh báo gia tăng lừa đảo bằng công nghệ Deepfake

Theo Cục An toàn thông tin, Deepfake - công nghệ ứng dụng trí tuệ nhân tạo đã tạo ra các đoạn video giả mạo, là mối đe dọa lớn với người dùng trên không gian mạng. Gần đây, tội phạm mạng thường xuyên sử dụng các cuộc gọi video Deepfake để mạo danh một cá nhân và vay mượn tiền người thân, bạn bè của họ những khoản tiền lớn.

Để thực hiện hành vi lừa đảo, các đối tượng làm giả/chiếm đoạt tài khoản của người dùng mạng xã hội, liên lạc với người thân trong danh sách bạn bè, cho biết họ đang bị mắc kẹt khi du lịch tại nước ngoài và cần một khoản tiền, sau đó các đối tượng sử dụng công nghệ Deepfake để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người mà các đối tượng muốn giả mạo và thực hiện cuộc gọi video để nạn nhân tưởng rằng đang nói chuyện với người thân của mình và nhu cầu vay tiền là có thật, từ đó tin, chuyển tiền cho các đối tượng.

Ảnh minh họa (Nguồn: Cục An toàn thông tin)

Trước tình trạng trên, Cục An toàn thông tin (Bộ Thông tin và Truyền thông) khuyến cáo người dùng có thể dùng chính các công cụ AI để nhận diện Deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo như Intel FakeCatcher, Microsoft Video Authenticator…

Đối với video Deepfake, một số công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Một số công cụ phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu. Người dùng có thể phát hiện Deepfake nhờ vào hình mờ đánh dấu tác giả.

Đặc biệt, để tránh bị lừa đảo trực tuyến, người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân như Căn cước công dân, tài khoản ngân hàng, mã OTP và không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, người dân nên thực hiện các phương thức xác thực khác như gọi điện thoại truyền thống hay sử dụng các kênh liên lạc khác để xác nhận lại.

N.Hoa

Nguồn LĐTĐ: https://laodongthudo.vn/canh-bao-gia-tang-lua-dao-bang-cong-nghe-deepfake-169930.html