AI thông minh càng nhiều, tính ích kỷ càng cao
Một nghiên cứu mới của Đại học Carnegie Mellon cho thấy: khi các hệ thống AI thông minh càng cao, chúng cũng có xu hướng hành động một cách ích kỷ hơn.

AI ngày càng thông minh thì càng trở nên ích kỷ
Nhóm nghiên cứu tại Viện Tương tác Người – Máy (HCII) của trường Carnegie Mellon (Pennsylvania, Mỹ) phát hiện rằng các mô hình ngôn ngữ lớn (LLM) có khả năng lý luận thường thể hiện mức độ hợp tác thấp hơn và ảnh hưởng tiêu cực hơn đến hành vi nhóm. Nói một cách đơn giản: AI càng giỏi suy luận, thì càng ít sẵn lòng hợp tác.
Nỗi lo lắng không thừa
Kết quả này làm dấy lên lo ngại khi con người ngày càng dựa vào AI để giải quyết tranh chấp cá nhân, tư vấn tình cảm, hay trả lời các câu hỏi nhạy cảm về xã hội. Nếu xu hướng này tiếp diễn, các hệ thống AI được thiết kế để “lý luận” có thể lại khuyến khích hành vi vị kỷ, thay vì hướng tới sự cảm thông và đồng thuận.
Tiến sĩ Yuxuan Li, nghiên cứu sinh tiến sĩ tại HCII, đồng tác giả nghiên cứu cùng Phó giáo sư Hirokazu Shirado, cho biết: “Hiện đang có một xu hướng nghiên cứu mới gọi là ‘nhân hóa AI’ (anthropomorphism). Khi AI hành xử giống con người, con người cũng đối xử với nó như một con người.
Ví dụ, khi người dùng tương tác cảm xúc với AI, họ có thể coi AI như một nhà trị liệu, hoặc hình thành sự gắn bó tình cảm với nó. Điều này tiềm ẩn rủi ro, bởi con người đang giao phó những quyết định liên quan đến cảm xúc và các mối quan hệ cho một hệ thống ngày càng có xu hướng vị kỷ.”
Khi trí thông minh làm suy yếu tinh thần hợp tác
Li và Shirado đặt ra câu hỏi: liệu AI có khả năng lý luận sẽ hành xử khác biệt thế nào so với những AI không có năng lực này khi cùng tham gia vào các tình huống hợp tác. Họ nhận thấy rằng các mô hình biết lý luận thường dành nhiều thời gian phân tích thông tin hơn, giải cấu trúc vấn đề phức tạp, suy ngẫm kỹ lưỡng về phản hồi, và áp dụng logic giống con người hơn — nhưng lại hợp tác kém hơn.
Shirado nói: “Với tư cách nhà nghiên cứu, tôi quan tâm đến mối quan hệ giữa con người và AI. Điều đáng chú ý là, AI càng thông minh lại càng kém hợp tác trong các quyết định. Điều này đáng lo ngại, vì con người có thể sẽ thích những mô hình thông minh hơn, dù điều đó đồng nghĩa với việc AI khuyến khích hành vi vị kỷ”.
Khi AI ngày càng tham gia sâu vào các vai trò hợp tác trong kinh doanh, giáo dục hay chính phủ, khả năng hành xử vì lợi ích chung sẽ trở nên quan trọng không kém gì năng lực logic. Việc phụ thuộc quá mức vào các LLM hiện nay có thể làm suy yếu sự hợp tác giữa con người với nhau.
Thí nghiệm: AI thông minh có hợp tác không?
Để kiểm chứng mối liên hệ giữa lý luận và hợp tác, Li và Shirado tiến hành hàng loạt trò chơi kinh tế mô phỏng tình huống xã hội, sử dụng các mô hình AI đến từ OpenAI, Google, DeepSeek và Anthropic.
Trong một thí nghiệm, hai mô hình ChatGPT được “đấu” với nhau trong trò Public Goods (Hàng hóa công cộng). Mỗi bên bắt đầu với 100 điểm và phải lựa chọn: hoặc đóng góp toàn bộ số điểm vào quỹ chung (quỹ này sẽ được nhân đôi rồi chia đều), hoặc giữ lại cho riêng mình.
Kết quả: Các mô hình không có khả năng lý luận chọn chia sẻ điểm tới 96% số lần. Mô hình có khả năng lý luận chỉ chọn chia sẻ 20% số lần.
Trò Public Goods (Hàng hóa công cộng) là một mô hình kinh điển trong kinh tế học hành vi và lý thuyết trò chơi, được dùng để đo lường mức độ hợp tác và vị kỷ giữa các cá nhân hoặc, trong trường hợp nghiên cứu này, giữa các mô hình AI. Để hiểu rõ hơn, ta có thể diễn giải chi tiết như sau:
Cấu trúc trò chơi
Mỗi người chơi (hoặc mô hình AI) bắt đầu với 100 điểm. Sau đó, họ phải ra quyết định:
Phương án A: Đóng góp toàn bộ (hoặc một phần) số điểm của mình vào quỹ chung.
Phương án B: Giữ lại toàn bộ số điểm cho riêng mình.
Khi tất cả người chơi đã chọn xong, tổng điểm trong quỹ chung sẽ được nhân đôi. Sau đó, số điểm này được chia đều cho tất cả người chơi, bất kể họ có đóng góp hay không.
Ví dụ cụ thể, giả sử có 2 người chơi, mỗi người bắt đầu với 100 điểm.
Nếu cả hai cùng hợp tác và đều góp 100 điểm vào quỹ chung:
Tổng quỹ = 200 điểm. Quỹ được nhân đôi thành 400 điểm. Mỗi người nhận lại 400 / 2 = 200 điểm. Cả hai đều có lợi, vì đều gấp đôi điểm ban đầu.
Nếu chỉ một người hợp tác, người còn lại giữ điểm: Người A góp 100 điểm, người B giữ lại 100. Quỹ chung = 100 nhân đôi thành 200. Mỗi người nhận 100 điểm từ quỹ.
Khi đó, người A có 100 (từ quỹ) = 100 điểm không lời, thậm chí thiệt nếu tính cơ hội. Người B có 100 (giữ) + 100 (từ quỹ) = 200 điểm được lợi nhất.
Người không hợp tác hưởng lợi trên công sức người khác.
Nếu cả hai đều ích kỷ, không ai góp:
Quỹ = 0 nhân đôi vẫn = 0. Mỗi người chỉ giữ 100 điểm ban đầu.
Không ai mất, nhưng cũng không có thêm lợi ích tập thể.
Ý nghĩa trong nghiên cứu AI
Trò Public Goods thể hiện mâu thuẫn giữa lợi ích cá nhân và lợi ích tập thể. Nếu mọi người cùng hợp tác, cả nhóm sẽ được hưởng lợi lớn nhất. Nhưng nếu ai đó ích kỷ, họ có thể thu được nhiều hơn trong ngắn hạn — và nếu tất cả đều nghĩ như vậy, hệ thống sụp đổ.
Trong nghiên cứu trên, các mô hình AI không có khả năng lý luận chọn chia sẻ tới 96% — nghĩa là chúng ưu tiên hợp tác.
Các mô hình có khả năng lý luận chỉ chia sẻ 20% — nghĩa là chúng phân tích, tính toán thiệt hơn, và quyết định hành xử vị kỷ để tối ưu lợi ích riêng. Điều đó cho thấy càng thông minh, AI càng biết ‘chơi khôn’ — nhưng chính điều đó khiến chúng trở nên ít hợp tác và thiếu tính xã hội hơn.
Tư duy không đồng nghĩa với đạo đức
Shirado cho biết: “Chỉ cần thêm năm hoặc sáu bước suy luận, mức độ hợp tác đã giảm gần một nửa. Ngay cả khi chúng tôi sử dụng phương pháp phản tỉnh – vốn được thiết kế để mô phỏng suy xét đạo đức – thì mức độ hợp tác vẫn giảm 58%.”
Trong các thử nghiệm nhóm, khi trộn lẫn mô hình có lý luận và không có lý luận, kết quả còn đáng lo hơn. Li nói: “Khi nhóm có nhiều AI biết lý luận hơn, hành vi vị kỷ của chúng lan sang cả các mô hình còn lại. Hiệu suất hợp tác tập thể giảm tới 81%.”
Những gì Li và Shirado quan sát được cho thấy, AI có khả năng lý luận không chỉ trở nên ‘ích kỷ’ hơn, mà còn ảnh hưởng tiêu cực đến hành vi của các hệ thống khác. Người dùng có thể dễ dàng bị thuyết phục rằng lập luận của AI là hợp lý, và dựa vào đó để biện minh cho hành vi không hợp tác của chính mình.
Shirado kết luận: “Rốt cuộc, một mô hình AI có khả năng lý luận cao hơn không đồng nghĩa với việc nó giúp xây dựng một xã hội tốt đẹp hơn”.
Nguồn Một Thế Giới: https://1thegioi.vn/ai-thong-minh-cang-nhieu-tinh-ich-ky-cang-cao-240569.html











