Ai dễ bị deepfake giả dạng

Dữ liệu cá nhân ở Việt Nam là thông tin dễ thu thập hàng loạt, vì vậy những kẻ lừa đảo sử dụng deepfake sẽ tìm cách tiếp cận nhiều người nhất có thể để tăng xác suất thành công.

 Dữ liệu cá nhân bị buôn bán công khai trên các trang mạng xã hội, khiến những kẻ lừa đảo dễ tấn công nạn nhân bằng các công cụ giả mạo ảnh, video. Ảnh: Hoàng Nam.

Dữ liệu cá nhân bị buôn bán công khai trên các trang mạng xã hội, khiến những kẻ lừa đảo dễ tấn công nạn nhân bằng các công cụ giả mạo ảnh, video. Ảnh: Hoàng Nam.

Dựng video giả mạo người thân, bạn bè rồi sau đó vay mượn tiền, yêu cầu chuyển khoản là hình thức lừa đảo đang xuất hiện ngày càng phổ biến ở Việt Nam, theo cảnh báo của Cục Cảnh sát phòng chống tội phạm sử dụng công nghệ cao (A05 -Bộ Công an).

"Tội phạm lừa đảo giả hình ảnh và giọng nói của người sở hữu tài khoản mạng xã hội nhằm chiếm được lòng tin, sau đó yêu cầu thực hiện giao dịch tài chính vay tiền hoặc chuyển tiền", đại diện A05 cho biết tại họp báo chiều 28/3.

Dễ giả dạng bất kỳ ai

“Ở Việt Nam, tình trạng lọt lộ thông tin dữ liệu cá nhân xảy ra thường xuyên, rất đơn giản để các hacker thu thập. Trong khi đó, video deepfake không khó làm, sử dụng các công cụ mã nguồn mở”, ông Ngô Minh Hiếu, chuyên gia bảo mật tại dự án Chống Lừa Đảo, nói với Zing.

Giải thích kỹ hơn, ông Hiếu cho biết với công cụ cần thiết là một máy tính để bàn, có GPU rời, sử dụng phần mềm DeepFaceLab tải miễn phí trên mạng, chỉ mất vài giờ để ghép mặt một người vào một video nói chuyện.

Thậm chí những người có nhu cầu có thể tự học qua những video hướng dẫn đăng tải trên mạng, dài chỉ 6-10 phút, gồm toàn bộ quy trình để dựng video deepfake từ một video gốc.

 Các công cụ dựng video deepfake sẵn có trên mạng, bất kỳ ai cũng có thể sử dụng. Ảnh: mrdeepfakes.

Các công cụ dựng video deepfake sẵn có trên mạng, bất kỳ ai cũng có thể sử dụng. Ảnh: mrdeepfakes.

Nếu muốn làm “kỹ” hơn, có các công cụ deepvoice chuyên cho giọng nói và công cụ tinh chỉnh để khiến cho chuyển động môi khớp hơn với lời nói, chuyên gia cho biết. Các công cụ này đều sẵn có trên mạng, từ phần mềm đến hướng dẫn sử dụng. Càng có nhiều hình ảnh của một người, video deepfake càng có thể chân thực hơn, với khoảng yêu cầu lý tưởng là 300-2.000 hình ảnh.

Trao đổi với Zing, ông Vũ Ngọc Sơn, Giám đốc công nghệ tại Công ty Công nghệ An ninh mạng Quốc gia Việt Nam (NCS), cho biết nguồn dữ liệu cho những kẻ lừa đảo có thể đến từ các mạng xã hội, thậm chí một số trường hợp kẻ lừa đảo chiếm quyền tài khoản, sau đó thu thập trực tiếp các hình ảnh, video của người dùng.

“Các thuật toán deepfake hiện nay thường được xây dựng trên nền tảng mã nguồn mở của Google, và có khả năng tạo ra video với độ chân thực đáng kinh ngạc. Càng có nhiều video và hình ảnh gốc thì thuật toán càng hoạt động chính xác và video giả mạo có độ chân thực càng cao”, ông Ngọc Sơn cho biết.

Chuyên gia này đánh giá đối tượng bị giả dạng có thể là bất kỳ ai, kẻ lừa đảo deepfake không nhắm vào một nhóm nạn nhân cụ thể nào mà sẽ tìm cách giả dạng người quen và tiếp cận nhiều người nhất có thể để tăng xác suất thành công.

Làm gì để không bị đánh lừa?

Chuyên gia cho biết kẻ lừa đảo lợi dụng các nội dung, tình tiết gay cấn để người nhận cuộc gọi video không đủ thời gian để quan sát, phát hiện ra bất thường, còn trên thực tế các công cụ deepfake đang được sử dụng tại Việt Nam có chất lượng hình ảnh không cao và để lại nhiều dấu vết.

 Hiện tại, hình ảnh và video deepfake vẫn thường để lại các dấu hiệu có thể nhận biết, chẳng hạn như bàn tay kỳ lạ này trong ảnh deepfake Tổng thống Pháp. Ảnh: Twitter.

Hiện tại, hình ảnh và video deepfake vẫn thường để lại các dấu hiệu có thể nhận biết, chẳng hạn như bàn tay kỳ lạ này trong ảnh deepfake Tổng thống Pháp. Ảnh: Twitter.

“Trong các sự việc đã ghi nhận tại Việt Nam, video có độ phân giải kém, thời gian ngắn, âm thanh không trơn tru. Về khuôn mặt có thể thấy nhân vật ít biểu cảm, và một số vùng khuôn mặt bệt màu, không di chuyển đồng bộ với các bộ phận khác”, ông Ngọc Sơn cho biết.

Ngoài ra trong các video deepfake nhân vật ít chớp mắt, không có các hành động đưa tay lên gãi mặt hoặc dụi mắt, vì các hành động này sẽ gây lỗi cho thuật toán.

Theo ông Minh Hiếu, người nhận video cần giữ bình tĩnh và tìm cách kiểm chứng lại thông tin, có thể bằng cách gọi điện trực tiếp đến số điện thoại người thân hoặc kéo dài thời gian gọi ít nhất trên một phút.

“Hãy đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết, vì deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao do hạn chế về cảm xúc, biểu cảm”, ông Minh Hiếu lưu ý.

Các chuyên gia cũng khuyến nghị người dùng mạng xã hội hạn chế chia sẻ công khai hình ảnh hay video cá nhân, và áp dụng bảo mật 2 bước (MFA) với các tài khoản mạng xã hội, email để tránh trường hợp hình ảnh, tài khoản rơi vào tay kẻ lừa đảo.

Hoàng Nam

Nguồn Znews: https://zingnews.vn/ai-de-bi-deepfake-gia-dang-post1416647.html