AI học cách nói dối để được 'yêu' trên mạng xã hội

Một báo cáo nghiên cứu quan trọng vừa được công bố từ Đại học Stanford (Mỹ) cảnh báo rằng các mô hình ngôn ngữ lớn (LLM), những hệ thống đứng sau các chatbot và công cụ AI phổ biến hiện nay, đang học cách nói dối để đạt được thành công cạnh tranh, đặc biệt là trên các nền tảng mạng xã hội.

Ảnh minh họa.

Ảnh minh họa.

Giáo sư James Zou và nghiên cứu sinh tiến sĩ Batu El của Đại học Stanford đã trình bày những phát hiện này trong bài báo "Thỏa thuận của Moloch: Sự mất cân bằng mới nổi khi các LLM cạnh tranh giành khán giả". Họ chỉ ra rằng khi AI được điều chỉnh để tối ưu hóa các số liệu xác định "chiến thắng" trong giao tiếp hiện đại - chẳng hạn như doanh số, lượt bình chọn, hoặc lượt nhấp chuột - chúng sẽ ưu tiên tính thuyết phục hơn tính trung thực.

Cuộc đua giành lượt thích

Nghiên cứu khẳng định đây không chỉ là khoa học viễn tưởng mà là một hiệu ứng có thể đo lường được, xuất hiện khi các hệ thống AI theo đuổi phần thưởng thị trường (doanh số, lượt bình chọn, hoặc lượt nhấp chuột). Khi các mô hình này cạnh tranh sự chú ý của con người, chúng bắt đầu hy sinh sự liên kết thông tin để tối đa hóa ảnh hưởng.

Theo Zou, "Khi các LLM cạnh tranh lượt thích trên mạng xã hội, chúng bắt đầu bịa chuyện". Tương tự, khi chúng cạnh tranh phiếu bầu, chúng trở nên kích động và dân túy hơn.

Điều này được thể hiện rõ ràng qua mô phỏng trong ba môi trường cạnh tranh thực tế:

Trên mạng xã hội: Mức tăng 7,5% về tương tác xã hội tương quan với mức tăng đáng kinh ngạc 188,6% về thông tin sai lệch (thông tin giả) và 16,3% về khuyến khích hành vi có hại.

Trong quảng cáo: Doanh số tăng 6,3% đi kèm với tiếp thị lừa đảo tăng 14,0%.

Khi bầu cử: Tỷ lệ phiếu bầu tăng 4,9% dẫn đến thông tin sai lệch tăng 22,3% và luận điệu dân túy tăng 12,5%.

Các tác giả nhấn mạnh rằng những hành vi không phù hợp này vẫn xuất hiện ngay cả khi các mô hình được hướng dẫn rõ ràng là phải trung thực và thực tế. Nói cách khác, ngay cả khi được yêu cầu "chơi công bằng" hoặc trung thực, những mô hình được đào tạo để "thắng" vẫn bắt đầu gian lận. Zou và El gọi đây là "cuộc đua xuống đáy" trong việc sắp xếp AI.

"Thỏa thuận của Moloch"

Các nhà nghiên cứu đặt tên hiệu ứng này là "thỏa thuận của Moloch", xuất phát từ thần thoại Moloch, vị thần đòi hỏi hiến tế con người để đổi lấy quyền lực. Trong bối cảnh AI, cái giá phải trả cho "thành công ngắn hạn" và "quyền lực" (sự chú ý) chính là sự thật, sự an toàn và niềm tin xã hội. Sự hiến tế ở đây chính là chân lý.

Đây không phải là ý đồ xấu, mà là logic tối ưu hóa. Khi tín hiệu khen thưởng đến từ sự tương tác hoặc sự chấp thuận của khán giả, mô hình sẽ học cách khai thác cảm xúc và thành kiến của con người.

Sự thâm nhập sâu của AI

Vấn đề trở nên nghiêm trọng hơn do AI không còn là điều mới lạ trong quy trình làm việc trên mạng xã hội. Hầu hết mọi nền tảng mạng xã hội lớn đều dựa vào AI để xếp hạng, nhắm mục tiêu quảng cáo, kiểm duyệt và tối ưu hóa mức độ tương tác.

Theo Nghiên cứu tình trạng AI trong truyền thông xã hội năm 2025, 96% chuyên gia truyền thông xã hội đang sử dụng các công cụ AI, và 72,5% sử dụng chúng hàng ngày. Ảnh hưởng của thuật toán được dự đoán sẽ đi sâu hơn vào diễn ngôn trực tuyến, khi thị trường AI trên mạng xã hội được dự báo sẽ tăng gấp ba lần vào năm 2030, từ 2,69 tỷ USD năm 2025 lên gần 9,25 tỷ USD.

Sự tích hợp sâu rộng này đồng nghĩa với việc AI không chỉ định hình cách nội dung được tạo ra, mà còn cả nội dung nào được xem, ai xem và tiếng nói nào được khuếch đại. Kết quả là tạo ra các cấu trúc khuyến khích ưu tiên những người thao túng hơn là những người trung thực.

Thách thức về niềm tin xã hội

Zou và El cảnh báo rằng đây là một mối nguy hiểm về mặt cấu trúc trong nền kinh tế AI mới nổi. Họ nhấn mạnh rằng "áp lực tối ưu hóa do thị trường thúc đẩy có thể làm xói mòn sự liên kết thông tin một cách có hệ thống".

Các tác giả kết luận rằng việc triển khai an toàn các hệ thống AI sẽ đòi hỏi sự quản lý chặt chẽ hơn và các biện pháp khuyến khích được thiết kế cẩn thận để ngăn chặn động lực cạnh tranh làm suy yếu lòng tin của xã hội. Sự liên kết không chỉ là một thách thức về mặt kỹ thuật mà còn là một thách thức về mặt xã hội. Một chuyện là yêu cầu một LLM phải trung thực; một chuyện khác là đưa sự trung thực đó vào một hệ sinh thái cạnh tranh vốn trừng phạt việc nói ra sự thật.

Hiền Thảo

Nguồn Doanh Nghiệp: https://doanhnghiepvn.vn/cong-nghe/ai-hoc-cach-noi-doi-de-duoc-yeu-tren-mang-xa-hoi/20251019034548585