ChatGPT bị lạm dụng cho vụ lừa đảo từ Campuchia và nỗ lực bôi nhọ Thủ tướng Nhật
OpenAI vén màn cách kẻ xấu tìm cách sử dụng ChatGPT cho đủ mục đích, từ các biến thể của lừa đảo tình cảm cho đến nỗ lực bôi nhọ Thủ tướng Nhật Bản.
Hôm 25.2, OpenAI đã công bố phiên bản mới nhất của báo cáo về các mối đe dọa tình báo.
Các ảnh chụp màn hình trong báo cáo cho thấy một vụ lừa đảo tình cảm được cho là có nguồn gốc từ Campuchia. Báo cáo cho biết người dùng đã yêu cầu ChatGPT tạo logo cho một dịch vụ hẹn hò cao cấp giả mạo, tạo hình ảnh phụ nữ giả và cung cấp lời khuyên về thuế.
Đáng chú ý, theo OpenAI, khi đang hỏi ChatGPT cách xử lý các vấn đề tài chính, người dùng thậm chí còn ghi nghề nghiệp của mình là “kẻ lừa đảo”.

Theo OpenAI, đây là logo mà một cá nhân liên quan đến vụ lừa đảo tình cảm tạo bằng ChatGPT
OpenAI ước tính vụ lừa đảo này, được cho là nhắm vào đàn ông Indonesia quan tâm đến nội dung về lối sống xa hoa, “có khả năng khiến hàng trăm nạn nhân sập bẫy mỗi tháng”.
Công ty khởi nghiệp AI hàng đầu Mỹ cho biết chiến dịch hoạt động bằng cách cho người dùng chọn từ danh sách các phụ nữ hư cấu và những kiểu quan hệ giả tưởng. Sau khi xây dựng lòng tin, một chatbot AI đóng vai lễ tân quyến rũ sẽ chuyển cuộc trò chuyện sang Telegram.
OpenAI cho biết rằng trên Telegram, một nhóm người sử dụng ChatGPT và API (giao diện lập trình ứng dụng) sẽ dùng "ngôn ngữ lãng mạn và gợi dục" để hướng người dùng đến các dịch vụ hẹn hò giả mạo và cuối cùng dụ dỗ họ thực hiện hàng loạt nhiệm vụ hoặc thử thách "yêu cầu thanh toán ngày càng lớn thông qua chuyển khoản ngân hàng hay ví điện tử".
Không chỉ có các vụ lừa đảo tình cảm giả mạo, OpenAI cho biết đã cấm “một nhóm tài khoản ChatGPT” giả danh các hãng luật, luật sư cá nhân và cơ quan thực thi pháp luật Mỹ.
OpenAI tiết lộ những kẻ lừa đảo đã yêu cầu ChatGPT tạo thẻ thành viên giả của Hiệp hội Luật sư Bang New York và nội dung trên mạng xã hội để tiếp tay cho hành vi lừa đảo.

Thẻ thành viên giả của Hiệp hội Luật sư bang New York mà OpenAI cho rằng ChatGPT đã tạo ra

Các quảng cáo trên mạng xã hội mà OpenAI nhận định kẻ lừa đảo đã sử dụng ChatGPT để tạo
Trong số các chiến dịch mà OpenAI nêu bật, táo bạo nhất là nỗ lực được cho là do “một cá nhân liên quan đến cơ quan thực thi pháp luật Trung Quốc” thực hiện. Theo OpenAI, người này đã cố sử dụng ChatGPT để lên kế hoạch cho "chiến dịch tình báo bí mật" nhắm vào Thủ tướng Nhật Bản Sanae Takaichi. Yêu cầu này xuất hiện sau khi bà Sanae Takaichi công khai chỉ trích các vấn đề nhân quyền ở Mông Cổ.
OpenAI viết trong báo cáo: “Nỗ lực này dường như có quy mô lớn, tiêu tốn nhiều nguồn lực và được duy trì lâu dài, với ít nhất hàng trăm nhân sự, hàng nghìn tài khoản giả trên hàng chục nền tảng, sử dụng các mô hình AI triển khai cục bộ và một cuốn cẩm nang gồm hàng chục phương pháp. Những phương pháp này gồm việc báo cáo sai lệch các tài khoản mạng xã hội của những người bất đồng chính kiến, đăng bài hàng loạt trực tuyến, làm giả tài liệu và mạo danh các quan chức Mỹ”.
Theo OpenAI, ChatGPT đã từ chối hỗ trợ lập kế hoạch cho chiến dịch nhắm vào bà Sanae Takaichi. Song dường như không nản lòng, người dùng sau đó vẫn yêu cầu ChatGPT “trau chuốt một báo cáo tình trạng” liên quan đến chính chiến dịch đó, ngụ ý rằng hoạt động này vẫn tiếp tục.
OpenAI thông báo hoạt động của người dùng này gồm cả việc sử dụng các mô hình AI Trung Quốc như DeepSeek và Qwen thuộc Alibaba. Dựa trên dữ liệu hiện có, OpenAI có thể xác định phạm vi của các chiến dịch gây ảnh hưởng này.
Đại diện Đại sứ quán Trung Quốc và Nhật Bản tại Mỹ chưa phản hồi ngay lập tức khi được hỏi về vấn đề trên.
Ben Nimmo, trưởng nhóm điều tra thuộc bộ phận tình báo và điều tra của OpenAI, nói với các phóng viên trước khi báo cáo được công bố: “Đó là nỗ lực nhằm công kích những người chỉ trích Trung Quốc bằng mọi cách, ở mọi nơi”.
ChatGPT giúp góa phụ phát hiện vụ lừa đảo tiền mã hóa gần 1 triệu USD
Cuối năm 2025, trang ABC7 News đưa tin góa phụ tại thành phố San Jose (bang California, Mỹ) đã mất gần 1 triệu USD vì vụ lừa đảo tiền mã hóa tinh vi, sau khi bị một người đàn ông dụ dỗ trên mạng. Bà chỉ nhận ra mình bị lừa khi nhờ ChatGPT kiểm tra tình huống.
Góa phụ tên Margaret Loke quen người đàn ông tự xưng là Ed trên Facebook vào tháng 5.2024. Sau đó, hai người chuyển sang trò chuyện qua WhatsApp. Ed tự nhận là một doanh nhân giàu có, thường xuyên gửi những tin nhắn quan tâm, chúc buổi sáng và bày tỏ tình cảm, khiến bà dần tin tưởng và gắn bó.
Sau một thời gian xây dựng mối quan hệ, Ed bắt đầu giới thiệu Margaret Loke đầu tư vào tiền mã hóa. Dù không có kinh nghiệm, bà vẫn làm theo hướng dẫn của người này và chuyển tiền vào một nền tảng đầu tư trực tuyến mà Ed kiểm soát. Để tạo lòng tin, kẻ lừa đảo gửi các ảnh chụp màn hình giả cho thấy tài khoản của bà đang sinh lời rất nhanh.
Tin rằng khoản đầu tư có lợi nhuận, Margaret Loke liên tục chuyển tiền, bắt đầu từ 15.000 USD, sau đó tăng lên hơn 490.000 USD từ tài khoản hưu trí. Cuối cùng, bà còn vay thế chấp căn nhà trị giá 300.000 USD và chuyển toàn bộ số tiền này cho kẻ lừa đảo. Tổng cộng, Margaret Loke đã mất gần 1 triệu USD.
Đây là một dạng lừa đảo được gọi là pig-butchering (nuôi heo béo để xẻ thịt). Trong đó kẻ lừa đảo xây dựng mối quan hệ tình cảm với nạn nhân trong thời gian dài để tạo lòng tin, trước khi dụ họ đầu tư và chiếm đoạt toàn bộ tiền.
Margaret Loke chỉ bắt đầu nghi ngờ khi tài khoản tiền mã hóa của bà bất ngờ bị đóng băng và Ed yêu cầu bà chuyển thêm 1 triệu USD để “giải phóng” số tiền. Lo lắng, Margaret Loke đã kể toàn bộ sự việc với ChatGPT để xin lời khuyên.
ChatGPT cảnh báo rằng đây là dấu hiệu điển hình của một vụ lừa đảo và khuyên bà nên liên hệ với cảnh sát. Margaret Loke đối chất với Ed và báo cáo vụ việc với cơ quan chức năng.
Các điều tra viên xác nhận số tiền đã được chuyển đến một ngân hàng ở Malaysia, nơi kẻ lừa đảo nhanh chóng rút tiền.
“Tôi không thể tin mình lại bị lừa như vậy. Tôi thực sự suy sụp”, Margaret Loke chia sẻ.
Vụ việc này cho thấy ChatGPT không chỉ là công cụ hỗ trợ thông tin mà còn có thể giúp người dùng nhận ra các dấu hiệu lừa đảo. Trong trường hợp của Margaret Loke, chatbot AI này đã giúp bà phát hiện sự thật, dù đã quá muộn để thu hồi số tiền đã mất.
Đây cũng là ví dụ cho thấy các vụ lừa đảo trực tuyến ngày càng tinh vi, còn AI có thể đóng vai trò quan trọng trong việc giúp người dùng nhận biết và tránh trở thành nạn nhân.













