Cảnh giác với công nghệ Deepfake
Trong thế giới số, tội phạm lừa đảo qua mạng Internet đang trở thành một vấn đề đáng lo ngại. Các thủ đoạn lừa đảo ngày càng trở nên tinh vi và khó phát hiện hơn, đặc biệt là khi công nghệ hiện đại như Deepfake phát triển.
Đầu năm 2025, hàng loạt lãnh đạo cơ quan Nhà nước tại các tỉnh Bến Tre, Lâm Đồng, Trà Vinh đã bị một đối tượng tự xưng là thám tử nhắn tin tống tiền, đe dọa tung các hình ảnh nhạy cảm. Cơ quan công an các tỉnh đã lập tức lên tiếng cảnh báo đây là hành vi lừa đảo, sử dụng công nghệ để cắt ghép ảnh, sau đó gọi điện đe dọa bị hại chuyển tiền.
Ông Vũ Ngọc Sơn, Ủy viên Ban Chấp hành Hiệp hội An ninh mạng quốc gia cho hay: “Về bản chất, những đối tượng lừa đảo chỉ cần thu thập hình ảnh liên quan đến khuôn mặt và thông qua các hình ảnh ở các góc khác nhau, các đối tượng có thể trích xuất ra được đặc trưng khuôn mặt, từ đó đưa vào phần mềm công nghệ Deepfake và sử dụng cho các mục đích xấu. Vì vậy, những clip giả mạo ra đời rất nhanh và sau đó được sử dụng vào kịch bản lừa đảo”.
Còn tại Hà Nội, bà Đặng Thị Mai (quận Hà Đông) là nạn nhân mới nhất của những thủ đoạn này. Bà Đặng Thị Mai kể: “Tôi nghe điện thoại thì thấy hình ảnh mờ, mạng yếu nhưng đúng giọng của em gái tôi. Em bảo tôi rút sổ tiết kiệm để trả nợ cho một người khác nên tôi đi ra ngân hàng làm theo”.
Thiếu tá Nguyễn Văn Chuyền - Phòng 6, Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao - Bộ Công an cho biết: “Công nghệ phát triển, tội phạm lợi dụng để giả mạo khuôn mặt, giọng nói gọi điện lừa đảo. Khi người dân nhìn thấy hình ảnh người thân, giọng nói thân quen thì dễ dàng tin tưởng, thực hiện các hành vi theo chỉ dẫn của đối tượng lừa đảo”.
Gần đây, trên các nền tảng mạng xã hội, những ứng dụng ghép khuôn mặt vào các video hoặc hình ảnh có sẵn được nhiều người sử dụng. Điều này có nghĩa, chúng ta đã vô tình cung cấp dữ liệu khuôn mặt cho những người không quen biết.
Phòng An ninh mạng và Phòng, chống tội phạm sử dụng công nghệ cao - Công an thành phố Hà Nội khuyến cáo, nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin: liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không; kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền, nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Đồng thời, khi nhận được các cuộc gọi video, cần trò chuyện ít nhất trên một phút để xác nhận rằng người mình đang nói chuyện là người thật chứ không phải giả mạo hay cắt ghép. Cách tốt nhất để tránh bị làm giả Deepfake là người sử dụng nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao.
Nguồn Hà Nội TV: https://hanoionline.vn/video/canh-giac-voi-cong-nghe-deepfake-307268.htm