Nghiên cứu cho thấy AI cũng 'tự tin thái quá và thiên lệch' như con người

Một nghiên cứu mới cảnh báo: ChatGPT – công cụ trí tuệ nhân tạo đang ngày càng phổ biến – cũng có thể mắc những lỗi tư duy phi lý giống như con người chúng ta, từ thiên kiến xác nhận cho đến ảo tưởng về sự chắc chắn.

Mặc dù trí tuệ nhân tạo (AI) và con người “suy nghĩ” theo cách hoàn toàn khác nhau, song một nghiên cứu vừa công bố đã chỉ ra điểm chung đáng lo ngại giữa hai bên: Cả hai đều có thể đưa ra những quyết định phi lý như nhau.

Trong gần một nửa số tình huống được kiểm tra, ChatGPT – công cụ AI nổi tiếng của OpenAI – đã mắc phải các thiên kiến nhận thức vốn phổ biến ở con người. Nghiên cứu được công bố trên tạp chí Manufacturing & Service Operations Management vừa qua đã đánh giá hành vi của ChatGPT dựa trên 18 thiên kiến tâm lý điển hình trong khoa học hành vi.

Ảnh minh họa.

Ảnh minh họa.

Các nhà nghiên cứu từ năm trường đại học tại Canada và Úc đã thử nghiệm hai phiên bản AI mạnh nhất hiện nay – GPT-3.5 và GPT-4 – và phát hiện rằng dù có khả năng lý luận nhất quán ấn tượng, ChatGPT vẫn dễ dàng rơi vào những “cái bẫy” tư duy như chúng ta.

Theo nhóm nghiên cứu, ChatGPT tỏ ra vượt trội khi xử lý các vấn đề có lời giải rõ ràng – như các bài toán xác suất hay logic. GPT-4 thậm chí còn ít mắc lỗi hơn GPT-3.5 trong những bài kiểm tra dạng này.

Tuy nhiên, khi gặp các tình huống mang tính chủ quan hoặc cần ra quyết định trong điều kiện không chắc chắn như chọn phương án đầu tư rủi ro để thu lợi nhuận, ChatGPT lại phản ứng y hệt con người, đôi khi còn "cẩn thận thái quá".

“GPT-4 thậm chí thể hiện sự thiên lệch về tính chắc chắn còn cao hơn cả con người,” nhóm nghiên cứu nhận định, cho thấy AI có xu hướng nghiêng về các lựa chọn an toàn khi đối mặt với sự mơ hồ.

Điều đáng nói là những thiên lệch này không biến mất dù câu hỏi được trình bày dưới dạng bài toán tâm lý hay tình huống kinh doanh thực tế. Điều đó cho thấy AI không chỉ đơn thuần lặp lại những gì nó “học được” từ dữ liệu – mà thực sự “lập luận” theo cách có thiên kiến.

Trong số các thiên lệch được kiểm tra, GPT-4 tỏ ra dễ bị ảnh hưởng bởi thiên kiến xác nhận (chỉ tìm thông tin củng cố niềm tin ban đầu) và hiệu ứng “tay đang nóng” – khi người ta tin rằng thành công trong quá khứ sẽ tiếp tục lặp lại, dù hoàn toàn ngẫu nhiên.

Tuy nhiên, ChatGPT vẫn tránh được một số lỗi tư duy thường gặp ở con người, như bỏ qua tỷ lệ cơ sở và ngụy biện chi phí chìm – hai thiên kiến phổ biến khiến người ta ra quyết định dựa trên thông tin không liên quan hoặc đã lỗi thời.

Theo nhóm nghiên cứu, nguồn gốc của những thiên lệch này nằm trong chính dữ liệu mà AI được đào tạo – vốn chứa đầy những sai lầm tư duy phổ biến của con người. Các thuật toán tinh chỉnh dựa trên phản hồi của con người lại càng củng cố xu hướng này, ưu tiên các phản hồi "có vẻ hợp lý" hơn là hoàn toàn chính xác.

Giáo sư Yang Chen, tác giả chính của nghiên cứu và hiện giảng dạy tại Trường Kinh doanh Ivey, cảnh báo: “Nếu bạn muốn có một công cụ hỗ trợ ra quyết định chính xác và không thiên lệch, chỉ nên dùng GPT cho các vấn đề bạn vốn đã tin vào máy tính cầm tay.”

Ngược lại, với các tình huống đòi hỏi sự đánh giá mang tính chủ quan hoặc chiến lược – ví dụ như ra quyết định kinh doanh, tuyển dụng hay hoạch định chính sách – thì sự giám sát của con người là không thể thiếu.

“AI cần được đối xử như một nhân viên đang đưa ra quyết định quan trọng – phải có sự giám sát và nguyên tắc đạo đức,” đồng tác giả Meena Andiappan, phó giáo sư tại Đại học McMaster, nhấn mạnh. “Nếu không, chúng ta có nguy cơ tự động hóa chính những lỗi tư duy mà lẽ ra phải sửa chữa.”

Như Ý (Live Science)

Nguồn Doanh Nghiệp: https://doanhnghiepvn.vn/kham-pha/nghien-cuu-cho-thay-ai-cung-tu-tin-thai-qua-va-thien-lech-nhu-con-nguoi/20250504093140557