ChatGPT, Copilot, Gemini và Perplexity, công cụ AI nào bịa đặt thông tin nhiều nhất?
Một nghiên cứu mới cho thấy các công cụ AI như ChatGPT, Copilot, Gemini và Perplexity thường xuyên bịa đặt thông tin và trả lời sai gần 50%.
Video: Các công cụ AI cung cấp khá nhiều thông tin sai lệch và bịa đặt, do đó người dùng cần phải kiểm chứng lại. Thực hiện: MINH HOÀNG
Theo Báo cáo Tin tức Số 2025 của Viện Reuters, hiện có khoảng 7% người dùng dựa vào các công cụ AI để cập nhật thông tin, tỉ lệ này tăng lên 15% trong nhóm dưới 25 tuổi.
Tuy nhiên, một nghiên cứu quốc tế do Liên minh Phát thanh Truyền hình châu Âu (EBU) phối hợp cùng BBC thực hiện đã đưa ra kết quả đáng lo ngại: Mọi trợ lý AI đều có xu hướng sai lệch đáng kể, bịa đặt thông tin khi tóm tắt hoặc phân tích tin tức.

Các công cụ AI thường trả lời sai và bịa đặt thông tin. Ảnh: AI
Gemini bịa đặt thông tin nhiều nhất
Nhóm nghiên cứu đã đánh giá hơn 3.000 câu trả lời từ 4 công cụ AI kể trên, dựa vào các tiêu chí như độ chính xác, nguồn trích dẫn, khả năng phân biệt giữa ý kiến và sự kiện, cùng mức độ cung cấp bối cảnh. Kết quả cho thấy:
- 45% câu trả lời có ít nhất một lỗi nghiêm trọng.
- Hơn 30% câu trả lời gặp vấn đề về nguồn gốc, thiếu thông tin, gây hiểu lầm hoặc không chính xác.
- Gần 20% chứa thông tin lỗi thời hoặc bịa đặt.
Đáng chú ý, Gemini của Google là hệ thống hoạt động kém nhất, với 76% câu trả lời gặp vấn đề, cao gấp đôi các hệ thống khác. Hầu hết lỗi của Gemini xuất phát từ việc gán sai nguồn hoặc trích dẫn nhầm thông tin, đặc biệt nghiêm trọng khi nội dung đó lại là tin sai.
“Chúng tôi nhìn thấy tiềm năng của AI trong việc giúp người dùng tiếp cận thông tin nhanh hơn, dù đã có tiến bộ nhưng các vấn đề nghiêm trọng vẫn tồn tại”, Peter Archer, Giám đốc chương trình generative AI của BBC chia sẻ.
Khi người dùng quá tin vào các công cụ AI
Một báo cáo riêng của BBC cũng cho thấy hơn 1/3 người trưởng thành tại Anh cho rằng AI có thể tóm tắt chính xác nội dung tin tức, và tỉ lệ này tăng lên gần 50% ở nhóm dưới 35 tuổi.
Tuy nhiên, các nhà nghiên cứu cảnh báo rằng nhiều người không nhận ra rằng bản tóm tắt AI có thể sai, và khi phát hiện lỗi, họ thường đổ lỗi cho cả nhà báo lẫn công ty AI, dù thực chất sai sót đến từ mô hình AI.
Trước thực trạng này, nhóm nghiên cứu đã công bố bộ công cụ “Tính toàn vẹn tin tức trong trợ lý AI” (News Integrity in AI Assistants Toolkit) nhằm giúp các tổ chức phát triển các giải pháp khắc phục. Đồng thời, EBU và các đối tác đang kêu gọi Liên minh châu Âu cùng chính phủ các nước tăng cường giám sát việc tuân thủ luật về thông tin và dịch vụ số.
Ông Jean Philip De Tender, Phó tổng giám đốc EBU, nhấn mạnh rằng vấn đề sai lệch của AI không phải là hiện tượng riêng lẻ, mà mang tính hệ thống, xuyên biên giới và đa ngôn ngữ, đe dọa trực tiếp đến niềm tin của công chúng.
Nếu không được kiểm soát, sai lệch thông tin từ các công cụ AI có thể khiến người dùng mất niềm tin vào truyền thông và cả công nghệ.