Thói quen khó bỏ của ChatGPT

Theo TechCrunch, OpenAI đã giải thích lý do ChatGPT vẫn 'bịa chuyện'.

OpenAI vừa công bố một nghiên cứu mới đặt câu hỏi: Vì sao các mô hình ngôn ngữ lớn như GPT-5 và chatbot ChatGPT vẫn mắc lỗi “ảo giác” (hallucination) – tức tạo ra những thông tin nghe hợp lý nhưng hoàn toàn sai sự thật và liệu có cách nào giảm thiểu tình trạng này?

Trong bài blog tóm lược nghiên cứu, OpenAI thừa nhận dù chất lượng đã cải thiện, ảo giác vẫn là “thách thức cốt lõi” của mọi mô hình ngôn ngữ, và sẽ không bao giờ có thể xóa bỏ hoàn toàn.

Ví dụ, khi nhóm nghiên cứu hỏi một chatbot phổ biến về luận án tiến sĩ của Adam Tauman Kalai (đồng tác giả bài báo), chatbot đưa ra ba câu trả lời khác nhau, đều sai. Đến khi hỏi ngày sinh, chatbot cũng trả lời ba ngày khác nhau và nó vẫn vẫn sai.

Theo OpenAI, nguyên nhân đến từ quá trình huấn luyện ban đầu, vốn chỉ dạy mô hình dự đoán từ tiếp theo mà không gắn nhãn “đúng/sai”. Do vậy, với những sự kiện ít xuất hiện, như ngày sinh của một cá nhân, mô hình thường suy đoán thay vì biết chính xác.

Tuy nhiên, thay vì thay đổi cách huấn luyện, nhóm nghiên cứu tập trung vào khâu đánh giá mô hình. Hiện tại, các bài kiểm tra thường chỉ chấm điểm dựa trên độ chính xác. Điều này vô tình khuyến khích chatbot “đoán mò”, vì một câu trả lời sai còn có cơ hội đúng ngẫu nhiên, thay vì thẳng thắn thừa nhận “không biết”.

OpenAI đề xuất cách tiếp cận giống các kỳ thi có cơ chế “trừ điểm khi trả lời sai” hoặc “cộng điểm một phần nếu bỏ trống”, để hạn chế tình trạng đoán bừa. Theo đó, hệ thống đánh giá nên phạt nặng lỗi trả lời sai một cách tự tin, đồng thời chấm điểm một phần cho những câu trả lời thể hiện sự không chắc chắn.

“Khi bảng xếp hạng vẫn thưởng cho những cú đoán may mắn, mô hình sẽ tiếp tục học cách đoán,” OpenAI nhấn mạnh.

Minh Đức - CTV

Nguồn SaoStar: https://www.saostar.vn/cong-nghe/thoi-quen-kho-bo-cua-chat-gpt-202509081009368021.html