Bảo mật thông tin cá nhân phòng bẫy lừa đảo sử dụng công nghệ AI

Trí tuệ nhân tạo (AI) đang làm thay đổi Internet theo cách chưa từng có, nhưng song hành với tiện ích là những chiêu lừa đảo ngày càng tinh vi.

Sự bùng nổ của AI tạo sinh không chỉ mang lại tiện ích vượt trội mà còn vô tình trao công cụ cho tội phạm mạng. Từ những email giả mạo không tì vết đến các cuộc gọi video deepfake giống như thật.

Trước đây, người dùng dễ dàng phát hiện email lừa đảo nhờ các lỗi ngữ pháp hay cách dùng từ ngô nghê. Nhưng nay, bằng cách huấn luyện các mô hình ngôn ngữ lớn với dữ liệu từ các doanh nghiệp uy tín, kẻ gian có thể tạo ra những email giả mạo hoàn hảo, bắt chước giọng điệu của ngân hàng hay đối tác một cách đáng kinh ngạc.

# Kẻ lừa đảo còn có thể sử dụng AI để “cào” toàn bộ thông tin bạn công khai trên mạng xã hội, từ đó tạo ra các kịch bản lừa đảo được 'đo ni đóng giày' dành cho riêng bạn. Thậm chí, chúng có thể tạo ra các nhân vật ảo có cùng sở thích để tiếp cận, làm quen và dẫn dụ nạn nhân vào các bẫy đầu tư tài chính hoặc tiền ảo.

# Hình thức lừa đảo gây hoang mang nhất hiện nay là sao chép giọng nói. Chỉ cần một vài đoạn video bạn đăng trên TikTok hay Facebook, AI có thể sao chép giọng nói của bạn giống đến 99%. Kẻ gian dùng giọng nói này để gọi điện vay tiền bạn bè, hoặc tồi tệ hơn là dàn dựng các vụ bắt cóc tống tiền giả mạo nhắm vào người cao tuổi trong gia đình.

# Không chỉ giọng nói, AI còn có thể tạo ra khuôn mặt giả (deepfake) trong các cuộc gọi video. Kẻ lừa đảo thường dùng hình ảnh người nổi tiếng hoặc giả danh sếp, người thân để tạo lòng tin.

Nhiều người đã dính bẫy và mất tiền cho những đối tượng lừa đảo bằng AI.

Ông Vũ Thanh Thắng - Chủ tịch công ty cổ phần AIZ đồng thời là nhà sáng lập công ty cổ phần An ninh mạng SCS cho rằng, rất nhiều kẻ xấu hiện nay sử dụng deepfake giọng nói, hình ảnh nhằm tạo dựng lòng tin để lừa đảo. Tuy nhiên, nếu cẩn trọng hơn, chúng ta có thể nhận biết deepfake bằng một số dấu hiệu như:

- Ngữ cảnh bất thường (đối tượng yêu cầu chuyển tiền, cung cấp thông tin nhạy cảm trong tình huống gấp gáp, thúc ép);

- Giọng nói hoặc hình ảnh thiếu tự nhiên (nhịp nói đều đều, ít cảm xúc, khẩu hình không khớp, ánh mắt “vô hồn”, biểu cảm cứng);

- Tránh xác minh (kẻ gọi thường né câu hỏi kiểm chứng đơn giản hoặc không cho bạn gọi lại qua kênh quen thuộc);

- Chất lượng không ổn định có chủ ý (video mờ, âm thanh rè, lấy lý do “mạng kém” để che lỗi deepfake).

"Cách phòng tránh lừa đảo bằng deepfake hiệu quả nhất là giữ nguyên tắc xác minh kép, tức là không chuyển tiền hay cung cấp thông tin chỉ dựa vào một cuộc gọi hay video; Gọi lại qua số điện thoại quen thuộc, kênh chính thức hoặc hỏi một chi tiết riêng chỉ người thật mới biết; Bình tĩnh, trì hoãn vài phút – lừa đảo deepfake thường sụp đổ khi mất yếu tố “khẩn cấp” - Ông Vũ Thanh Thắng nhấn mạnh.

Ông Vũ Thanh Thắng - Chủ tịch công ty cổ phần AIZ, nhà sáng lập công ty cổ phần An ninh mạng SCS

Ông Vũ Thanh Thắng - Chủ tịch công ty cổ phần AIZ, nhà sáng lập công ty cổ phần An ninh mạng SCS

Ông Thắng cũng cho rằng sai lầm lớn nhất về bảo mật cá nhân hiện nay là việc người dùng “chia sẻ quá nhiều mà không nhận ra giá trị của dữ liệu mình đang để lộ”. Chính điều đó đang trở thành nguyên liệu đầu vào cho các chiêu trò lừa đảo sử dụng AI.

Hình ảnh, giọng nói và thông tin cá nhân công khai trên mạng xã hội – từ ảnh chân dung, video ngắn, đến ngày sinh, mối quan hệ – có thể bị thu thập để huấn luyện AI tạo deepfake. Chỉ cần vài giây giọng nói hoặc một số bức ảnh, kẻ xấu đã có thể giả mạo danh tính với độ tin cậy cao.

Thói quen chia sẻ thông tin đời sống và công việc khiến AI dễ dàng dựng kịch bản lừa đảo “đúng người, đúng việc”. Khi kẻ gian biết bạn là ai, làm gì, đang gặp vấn đề gì, thông điệp lừa đảo sẽ được cá nhân hóa, đánh trúng tâm lý và khiến nạn nhân mất cảnh giác.

Đáng lo ngại hơn, dữ liệu cá nhân bị rò rỉ hoặc mua bán trái phép đang giúp các chiến dịch lừa đảo AI hoạt động ở quy mô lớn và có chọn lọc. Người dùng không chỉ bị tấn công ngẫu nhiên, mà trở thành mục tiêu cụ thể dựa trên hồ sơ dữ liệu.

"AI không tự tạo ra rủi ro, mà khuếch đại rủi ro từ việc dữ liệu cá nhân bị khai thác thiếu kiểm soát. Trong bối cảnh này, nâng cao ý thức bảo mật – hạn chế chia sẻ thông tin nhạy cảm, kiểm soát quyền riêng tư và xác minh trước khi tin – là tuyến phòng thủ quan trọng nhất của mỗi cá nhân". - Ông Thắng lưu ý.

Để tự bảo vệ trước các “bẫy” lừa đảo bằng AI, ông Vũ Thanh Thắng cho rằng người dùng cần kết hợp ba lớp phòng vệ: phòng ngừa – nhận diện – phản ứng đúng cách.

Người dùng nên chủ động phòng ngừa từ sớm bằng cách hạn chế chia sẻ hình ảnh, giọng nói và thông tin cá nhân nhạy cảm trên mạng xã hội; thiết lập quyền riêng tư ở mức cao; sử dụng xác thực hai lớp cho tài khoản ngân hàng, email và mạng xã hội. Việc cài đặt các công cụ bảo mật cơ bản như lọc cuộc gọi rác, cảnh báo link độc hại hay phần mềm chống lừa đảo cũng giúp giảm đáng kể rủi ro.

Rèn thói quen nhận diện dấu hiệu bất thường. Mọi yêu cầu chuyển tiền, cung cấp thông tin cá nhân trong tình huống khẩn cấp đều cần được nghi ngờ. Với các cuộc gọi, tin nhắn hay video có yếu tố “quen nhưng lạ”, người dùng nên kiểm chứng lại qua kênh chính thức hoặc người thứ ba, thay vì tin ngay vào cảm xúc ban đầu.

Người dùng cũng cần phản ứng đúng khi nghi ngờ bị tấn công. Nguyên tắc quan trọng là không hành động vội vàng, không làm theo hướng dẫn của đối tượng nghi vấn. Nếu có thể thì lưu lại bằng chứng, báo ngay cho ngân hàng, nền tảng liên quan hoặc cơ quan chức năng, đồng thời đổi mật khẩu và kiểm tra lại các tài khoản cá nhân.

Lừa đảo bằng AI đánh vào tâm lý, nhưng phòng vệ hiệu quả lại đến từ sự bình tĩnh và kỷ luật số. Khi mỗi người dùng có ý thức bảo mật tốt và phản ứng đúng cách, các “bẫy” lừa đảo tinh vi nhất cũng sẽ khó phát huy tác dụng.

Việt Anh/VOV2

Nguồn VOV: https://vov.vn/xa-hoi/bao-mat-thong-tin-ca-nhan-phong-bay-lua-dao-su-dung-cong-nghe-ai-post1259706.vov