Nghịch lý: Chatbot AI càng thông minh càng nói xạo
Thế giới AI đang có một nghịch lý khó hiểu: càng thông minh, càng... 'nói xạo'. Các mô hình AI tạo sinh mới nhất không chỉ giỏi trong việc giải toán, mà còn 'sáng tạo' hơn trong việc... bịa chuyện!

AI có thể nói xạo "không chớp mắt"
Khi AI trở thành "chuyên gia" bịa chuyện
Hiện tượng "ảo giác" (hallucination) của AI đã trở thành một vấn đề nan giải. Chức năng AI Overview của Google từng gây xôn xao với công thức pizza "độc đáo" của mình. Tại Hàn Quốc, ChatGPT đã sáng tạo ra câu chuyện cười về việc vua Sejong ném MacBook - một chiếc laptop mà ngài có lẽ phải sống hơn 600 tuổi để biết nó là cái gì. Hay có là câu chuyện "huyền thoại" về tướng MacArthur cũng được AI "tô vẽ" thêm nhiều chi tiết... không có thật.
Con số báo động: chỉ riêng quý 1/ 2025, đã có 13.000 bài viết do AI tạo ra bị xóa khỏi các nền tảng trực tuyến vì nội dung ảo giác. ChatGPT cũng "thành tích" trích dẫn sai tới 76% các câu trích dẫn trên các trang tin tức phổ biến. Với tỷ lệ này, có lẽ AI đã vô tình trở thành "chuyên gia" không đáng tin cậy nhất thế giới!
Sự nghiêm trọng của vấn đề được thể hiện rõ qua vụ án Michael Cohen, khi một chatbot AI Bard của Google đã "sáng tạo" ra một tiền lệ pháp luật hoàn toàn không tồn tại. Có lẽ AI nghĩ rằng luật pháp cũng giống như văn học - có thể "sáng tác" tự do!
Nghiêm trọng hơn, trường hợp của Arve Hjalmar Holmen, một người Na Uy bị AI "nhầm" là kẻ giết người. Đây được ghi nhận là vụ kiện phỉ báng đầu tiên liên quan đến hiện tượng ảo giác của AI. Có thể nói, AI đã vô tình trở thành "thám tử" tệ nhất trong lịch sử!
Nghịch lý của tiến bộ: AI càng thông minh càng nói "xạo"
Đây chính là điều kỳ lạ nhất: các nghiên cứu gần đây cho thấy rằng các mô hình AI mới nhất của OpenAI, Google và DeepSeek không chỉ không giảm tỷ lệ ảo giác, mà còn tăng đáng kể so với các phiên bản trước đó. Thật là một "thành tích" đáng... lo ngại!
Các thử nghiệm nội bộ của OpenAI cho thấy mô hình o3 và o4-mini đã "xuất sắc" trong việc tạo ra thông tin sai lệch:
Trong đánh giá PersonQA (thông tin cá nhân), o3 có tỷ lệ ảo giác 33% và o4-mini là 48%, cao gấp đôi so với o1 (16%). Như vậy, mô hình càng mới càng "sáng tạo" hơn trong việc... bịa chuyện về người khác!
Trong đánh giá SimpleQA (các sự kiện chung), o3 và o4-mini cho thấy tỷ lệ ảo giác lần lượt là 51% và 79%, so với o1 (44%). Có nghĩa là cứ 4-5 câu trả lời, thì có 2-4 câu là... "hư cấu"!
Cuộc đua "nói xạo" giữa các đại gia
Không chỉ OpenAI, các công ty khác cũng không kém cạnh trong "cuộc đua" này. DeepSeek R1 đã đạt tỷ lệ ảo giác 14.3% theo đánh giá của Vectara - cao gấp khoảng 18 lần so với Gemini 2.0 của Google (0.7%) và o3-mini-high (0.8%). Có lẽ DeepSeek đã hiểu nhầm rằng "sáng tạo" có nghĩa là... bịa chuyện!
Thực tế này cho thấy rằng trong thế giới AI, "thông minh" và "trung thực" có thể là hai khái niệm hoàn toàn khác nhau. Các mô hình AI mới có thể giải được các bài toán phức tạp, nhưng đồng thời cũng "giỏi" hơn trong việc tạo ra những câu chuyện không có thật.
Có lẽ đây là lúc chúng ta cần nhắc nhở AI rằng: "Thông minh thì được, nhưng đừng có 'xạo'!" Bởi vì trong thế giới thực, độ chính xác vẫn quan trọng hơn sự "sáng tạo" quá đà.
Gemini ít nói xạo nhất?
Mặc dù Google không công bố chi tiết toàn bộ các phương pháp kỹ thuật nội bộ để giảm thiểu ảo giác, các yếu tố sau có thể đóng góp vào tỷ lệ ảo giác thấp của Gemini.
Về thiết kế kiến trúc và dữ liệu đào tạo, Google có quyền truy cập vào lượng dữ liệu khổng lồ và đa dạng, bao gồm cả văn bản, hình ảnh, video, giúp Gemini xây dựng một "hiểu biết" toàn diện hơn về thế giới.
Các kiến trúc mô hình của Google (ví dụ: chú trọng vào khả năng suy luận, hiểu ngữ cảnh) có thể được tối ưu hóa để giảm thiểu việc "bịa đặt" thông tin khi không chắc chắn.
Về kỹ thuật giảm ảo giác cụ thể, Google có thể tích hợp các cơ chế nội bộ trong pipeline của mô hình để đối chiếu nội dung được tạo ra với các nguồn đáng tin cậy. Điều này giúp giảm nguy cơ tạo ra thông tin sai lệch.
Ngoài ra, mô hình có thể được huấn luyện với các đầu vào cố ý gây hiểu lầm để tăng cường khả năng chống lại việc tạo ra nội dung ảo giác. Về hiệu chỉnh ngữ cảnh (Contextual calibration), Google điều chỉnh đầu ra của mô hình dựa trên ngữ cảnh được cung cấp để giảm các trường hợp ảo giác. Về phương pháp tổng hợp (Ensemble methods), Google kết hợp đầu ra của nhiều mô hình để trung bình hóa lỗi và đưa ra câu trả lời đáng tin cậy hơn.
Về kỹ thuật hậu xử lý (Post-processing techniques), Google sử dụng các hệ thống có sự tham gia của con người (human-in-the-loop) để lọc bỏ các đầu ra ảo giác, đảm bảo tính chính xác về mặt thực tế.
Thúc đẩy khả năng "không biết" (Uncertainty awareness): Huấn luyện để mô hình nhận biết khi nó không có đủ thông tin hoặc không chắc chắn về một câu trả lời, và thay vì bịa đặt thông tin, nó sẽ báo hiệu sự thiếu chắc chắn.