Bùng nổ lừa đảo sử dụng công nghệ cao từ AI phi đạo đức
Trong các cuộc đột kích của lực lượng chức năng vào hang ổ các trung tâm lừa đảo trong thời gian gần đây, các thiết bị công nghệ cao kết hợp với ứng dụng trí tuệ nhân tạo (AI) bị thu giữ ngày càng nhiều. Tuần qua, Công an Việt Nam phối hợp với cảnh sát nước bạn vào trung tâm lừa đảo ở tỉnh Kampot (Campuchia), ngoài việc bắt giữ gần 60 nghi phạm người Việt, cơ quan chức năng còn thu giữ được các hệ thống máy tính dùng AI để lừa đảo.
Bọn tội phạm đầu tư ngày càng nhiều vào công nghệ cao để tăng hiệu quả lừa đảo. Kết nối internet dùng đầu thu vệ tinh Starlink nhập lậu, máy tính điều khiển SIM box/phone farm và công nghệ AI như deepfake và các công cụ lừa đảo chạy trên các mô hình ngôn ngữ lớn phi đạo đức như FraudGPT, WormGPT... đã trở thành "trang bị tiêu chuẩn" tại các trung tâm lừa đảo ở Campuchia, Myanmar... Điều này càng khiến cho làn sóng AI phi đạo đức (unethical/immoral AI) bùng nổ trên thị trường đen dark web (là không gian được ẩn giấu, không thể truy cập bằng công cụ tìm kiếm thông thường như Google, Bing hay Yahoo).

Công an Việt Nam phối hợp với lực lượng chức năng Campuchia bắt giữ nhóm đối tượng lừa đảo qua mạng tại Campuchia hôm 28/10/2025. Ảnh: Công an tỉnh Lai Châu
Hiểm họa ngày càng tăng
Trong khi các công cụ AI như ChatGPT của OpenAI, Copilot của Microsoft hay Gemini của Google... ngay từ đầu đều được phát triển theo hướng dùng mô hình ngôn ngữ lớn (LLM) có kiểm duyệt. AI sẽ từ chối cung cấp thông tin vi phạm các chuẩn mực đạo đức hay có thể gây hại cho con người. Ngược lại, AI phi đạo đức sẽ hoạt động mà không tuân thủ theo bất kỳ quy định nào, trở thành công cụ nguy hiểm. Từ các LLM độc hại như FraudGPT và WormGPT được bán trên thị trường đen, đến công nghệ deepfake tạo nội dung giả mạo, AI phi đạo đức đang đe dọa an ninh mạng toàn cầu.
Sự hình thành của AI phi đạo đức đã manh nha từ những năm đầu 2020, khi các mô hình AI tạo sinh (generative) như GPT-2 và GPT-3 bắt đầu được công khai. Và không bao lâu sau, năm 2023 các công cụ AI độc hại đầu tiên xuất hiện trên dark web là WormGPT. Dựa trên mô hình mã nguồn mở GPT-J, WormGPT được huấn luyện trên dữ liệu độc hại như mã độc (malware) và mẫu kịch bản lừa đảo (phishing), loại bỏ hoàn toàn rào cản đạo đức của các AI hợp pháp như ChatGPT. Công cụ này cho phép tạo email lừa đảo doanh nghiệp đọc rất thuyết phục để lừa chuyển tiền, cài mã độc, tạo nội dung thao túng tâm lý...
FraudGPT, ra mắt ngay sau WormGPT vào tháng 7/2023, được quảng bá như một "chatbot không giới hạn" với khả năng tạo mã độc không thể phát hiện, tìm lỗ hổng bảo mật và soạn thảo nội dung trang web lừa đảo. Đến năm 2024 - 2025, các biến thể như WolfGPT và Evil-GPT xuất hiện, tập trung vào tính ẩn danh và tích hợp Python để tạo mã mã hóa, giúp tội phạm tránh phát hiện. Những công cụ này được huấn luyện trên dữ liệu từ các vụ hack trước đó, khai thác lỗ hổng của AI mã nguồn mở để tạo nội dung phi đạo đức mà không cần kỹ năng lập trình cao.

Người dùng cần cảnh giác với thủ đoạn sử dụng công nghệ deepfake để lừa đảo. Ảnh minh họa: Baochinhphu
Thị trường đen giúp các công cụ AI phi đạo đức lan nhanh. Trên các diễn đàn dark web như Dread hoặc Telegram, các công cụ AI phi đạo đức đủ loại được bán với giá từ 10 USD (Evil-GPT) đến cho thuê 1.700 USD/năm (FraudGPT), thu hút cả tội phạm chuyên nghiệp lẫn mới tập tễnh vô nghề. Theo báo cáo từ Trustwave, hơn 3.000 bản FraudGPT đã được bán, chứng tỏ nhu cầu cao. Lợi nhuận nhờ buôn bán và sử dụng lên đến hàng triệu USD càng thúc đẩy sự phát triển AI độc hại.
Các tổ chức như TRM Labs và Microsoft cảnh báo rằng, AI đang biến lừa đảo thành ngành công nghiệp công nghệ cao, đòi hỏi các biện pháp chống như xác minh đa yếu tố và giáo dục người dùng. Cụ thể như các trung tâm lừa đảo ở Đông Nam Á sử dụng AI để mở rộng quy mô, giảm chi phí và tăng lợi nhuận, với deepfake tăng 704%.
Tội phạm sử dụng AI phi đạo đức ra sao?
Theo Chainabuse, lừa đảo liên quan đến AI tăng 456% từ tháng 5/2024 đến 4/2025. AI phi đạo đức cho phép kẻ xấu không chuyên tạo nội dung lừa đảo tinh vi mà không cần kỹ năng máy tính cao. Deepfake - công nghệ tạo video/giọng nói giả mạo - là mối đe dọa lớn nhất, tăng gấp 20 lần từ năm 2022. Năm 2024 có hai vụ lừa đảo tài chính điển hình qua deepfake video call là công ty Arup mất 25 triệu USD do tội phạm giả mạo giám đốc tài chính và công ty Retool mất lượng tiền số trị giá 15 triệu USD chuyển theo yêu cầu của "khách hàng" giả.
Theo báo cáo của Trung tâm Nghiên cứu chiến lược và quốc tế Mỹ (CSIS), việc sử dụng AI để tạo video giả mạo nhằm vượt qua xác minh KYC tại ngân hàng đã tăng hơn 15 lần ở khu vực Châu Á - Thái Bình Dương trong giai đoạn 2022 - 2023. Ở Campuchia (như Sihanoukville, OSmach) và Myanmar (như Myawaddy, Shwe Kokko) có các cơ sở hoạt động như "nhà máy lừa đảo sử dụng công nghệ cao" với hàng nghìn lao động. Trong trung tâm lừa đảo, AI được sử dụng theo nhiều cách phi đạo đức, tận dụng công nghệ để tối ưu hóa lừa đảo. Các công cụ như FraudGPT, một LLM độc hại cho thuê trên dark web với giá 200 USD/tháng, cho phép tạo email lừa đảo, kịch bản lừa đảo và trang web giả mạo mà không cần kỹ năng lập trình cao.


Nhiều hình ảnh, nội dung được tạo dựng từ deepfake trở thành công cụ cho các đối tượng lừa đảo
Deepfake là vũ khí chính, công nghệ này tạo video hoán đổi khuôn mặt hoặc giọng nói để giả mạo cơ quan chức năng, người nổi tiếng hoặc người thân, dùng trong tống tiền bằng hình ảnh/video khỏa thân giả mạo (sextortion) hoặc lừa đảo đầu tư. LLM như FraudGPT hoặc WormGPT soạn thảo kịch bản xã hội học, tạo tin nhắn thuyết phục và tự động hóa quá trình xây dựng lòng tin kéo dài hàng tuần. Các phần mềm độc hại dựa trên AI đánh cắp dữ liệu nạn nhân, bán trên chợ đen với giá 50 - 250 USD, hỗ trợ các biến thể lừa đảo như giả mạo cơ quan nhà nước hoặc giả mạo shippper, sàn thương mại điện tử. AI dịch được dùng để lừa đảo đa ngôn ngữ, kết hợp sim box cho nhắn tin hàng loạt.
Một ứng dụng chính của FraudGPT là soạn thảo email, tin nhắn lừa đảo. Công cụ này tạo ra các email thuyết phục, bao gồm cả các chiến dịch lừa đảo nhắm đến doanh nghiệp, bằng cách sử dụng ngôn ngữ tự nhiên và chi tiết cá nhân hóa để đánh lừa nạn nhân. Theo báo cáo từ KnowBe4, ít nhất 73,8% email lừa đảo được phân tích năm 2024 có dấu hiệu sử dụng AI, với FraudGPT và các công cụ tương tự như WormGPT giúp tạo nội dung không có lỗi ngữ pháp, phù hợp với ngữ cảnh ngành nghề hoặc khu vực địa lý.
Trong kiểu lừa đảo "vỗ béo và giết thịt" (pig butchering), email hay tin nhắn thường là bước khởi đầu, giả mạo là lời mời kết bạn hoặc cơ hội đầu tư, với nội dung được dịch tự động sang nhiều ngôn ngữ như tiếng Anh hoặc tiếng Việt để mở rộng phạm vi nạn nhân. Một nghiên cứu của SoSafe cho thấy, 78% người tham gia mở email hay tin nhắn lừa đảo do AI tạo và 21% click vào liên kết hại, chứng tỏ hiệu quả cao của các nội dung này.
Kịch bản pig butchering bắt đầu từ "chào hỏi ngẫu nhiên" trên mạng xã hội, dần dần xây dựng mối quan hệ bằng cách chèn chi tiết cá nhân từ dữ liệu bị đánh cắp, như sở thích chung hoặc sự kiện gần đây. Các công cụ như WormGPT, tiền thân của FraudGPT, sử dụng bộ nhớ phiên để duy trì tính liên tục trong hội thoại, giúp tự động hóa các cuộc gọi lừa đảo qua giọng nói hoặc qua tin nhắn. AI giúp tăng gấp bội "năng suất lừa đảo" bằng cách tự động trả lời hàng loạt tin nhắn.
FraudGPT còn tạo ra kịch bản trò chuyện là các đoạn hội thoại được thiết kế để thao túng cảm xúc, khai thác bản năng như sợ hãi, tham lam hoặc lòng tốt. Trong pig butchering, kịch bản có thể bao gồm các cuộc trò chuyện dài hạn trên ứng dụng nhắn tin như Viber, WhatsApp hoặc Telegram, nơi AI tạo tin nhắn giả mạo tình cảm hoặc lời khuyên đầu tư.
AI còn tạo tài liệu hỗ trợ như hóa đơn ngân hàng giả hoặc báo cáo đầu tư, chiếm 70% các trường hợp gian lận tài liệu do AI trong năm 2024. FraudGPT tạo nội dung và xây dựng các website giả mạo nền tảng đầu tư hoặc sàn giao dịch tiền điện tử với giao diện chuyên nghiệp, biểu đồ giả mạo và lời chứng thực từ "khách hàng hài lòng". Trong pig butchering, trang web giả này là "con heo" cuối cùng, nơi nạn nhân chuyển tiền vào ví điện tử giả mạo và bị chiếm đoạt.














