Đừng để AI 'ảo giác' thay con người
Là con người, khó tránh khỏi việc đôi khi chúng ta sẽ thấy những điều không tồn tại. Trong tâm lý học, người ta gọi đó là ảo giác. Trí tuệ nhân tạo (AI) cũng có thứ 'ảo giác' khi chúng tạo ra kết quả không tồn tại trong thực tế, thậm chí vô nghĩa hoặc sai lệch, nói cách khác là hệ thống đã 'nhìn thấy' hoặc 'nghĩ ra' thứ chưa từng có và có thể không bao giờ có. Điều này thường dễ xảy ra với các hệ thống nhận dạng hình ảnh, với kết quả đầu ra là những thứ kỳ quái, siêu thực.
Phản ánh và khuếch đại định kiến
Năm 2022, Galactica của Meta bị gỡ bỏ nhanh chóng chỉ sau vài ngày ra mắt do cung cấp thông tin sai lệch và có thành kiến trong câu trả lời. Technology Review khi đó bình luận rằng AI của Meta giống như "con bot không có đầu óc", không thể phân biệt thật giả, vốn là yêu cầu cơ bản với mô hình ngôn ngữ được thiết kế để tạo ra văn bản khoa học. Những sai sót có thể không qua mặt được các nhà khoa học, nhưng có thể khiến những người chưa am hiểu hiểu nhầm, kéo theo nhiều hệ lụy đáng lo ngại.

Ảo giác của AI đem đến những phản hồi "nghe có vẻ" đúng đắn và thuyết phục (Ảnh đồ họa của Thomas Fuller/SOPA Images/LightRocket qua Getty Images)
Năm 2017, Joy Buolamwini triển khai dự án Gender Shades để kiểm thử các hệ thống nhận diện khuôn mặt thương mại của các tập đoàn lớn như IBM, Microsoft và Megvii với công nghệ Face++. Nghiên cứu sử dụng bộ dữ liệu Pilot Parliaments Benchmark gồm 1.270 khuôn mặt đại diện đa dạng về giới tính và tông màu da, tập trung đánh giá độ chính xác phân loại giới tính. Kết quả cho thấy sự chênh lệch đáng kể trong độ chính xác giữa các nhóm: các hệ thống này cho kết quả tốt nhất với nhóm nam giới có làn da sáng, trong khi nhóm nữ giới có làn da tối lại có tỷ lệ phân loại sai cao nhất.
Nguyên nhân chính được xác định là do dữ liệu huấn luyện thiếu đa dạng, có thiên lệch tập trung nhiều hình ảnh nam giới da sáng hơn, khiến thuật toán không thể nhận diện chính xác các nhóm khác. Nghiên cứu này đã làm nổi bật vấn đề định kiến trong AI, góp phần nâng cao nhận thức về sự cần thiết của công bằng, minh bạch và đa dạng trong phát triển các công cụ AI. Dự án Gender Shades được xem là dấu mốc quan trọng mở ra cuộc thảo luận rộng rãi về các hệ quả xã hội và đạo đức của định kiến trong AI.
Những công cụ AI tạo sinh như Stable Diffusion cũng vướng phải những vấn đề tương tự. Nghiên cứu năm 2023 về hơn 5.000 hình ảnh do Stable Diffusion tạo ra cho thấy hệ thống này có cả định kiến giới và sắc tộc. Không chỉ riêng AI tạo ảnh, các công cụ tạo văn bản như ChatGPT cũng nhiều lần tạo ra nội dung mang định kiến, thiên lệch hoặc không hề căn cứ trên thực tế song thoạt nhìn lại rất thuyết phục. Vấn đề nghiêm trọng ở chỗ khi nhận kết quả và phản hồi từ các công cụ công nghệ, con người có xu hướng tin tưởng hơn và ít thừa nhận rằng dữ liệu đầu ra có thể sai lệch.
Con dao 2 lưỡi từ sự tự tin của AI
Các nhà khoa học và nghiên cứu chỉ ra rằng ảo giác AI thường bắt nguồn từ một số yếu tố.
Thứ nhất, là "quá khớp mô hình" (overfitting), hiện tượng xảy ra khi mô hình học thuộc lòng dữ liệu huấn luyện thay vì học quy luật tổng quát, dẫn đến dự đoán sai trong tình huống mới. Mô hình tạo sinh hoạt động giống như công cụ tự động hoàn thành, dựa trên mẫu đã quan sát và tiếp nhận, với mục tiêu là tạo ra nội dung "hợp lý", chứ không phải kiểm chứng tính đúng đắn. Công nghệ đằng sau các công cụ AI tạo sinh chưa được thiết kế để phân biệt sự thật với giả và ngay cả khi được huấn luyện chỉ trên dữ liệu chính xác, mô hình vẫn có thể tạo ra thông tin mới nhưng sai lệch khi kết hợp các mẫu dữ liệu.
Thứ hai, do thiên lệch hoặc lỗi dữ liệu huấn luyện. Nếu dữ liệu đầu vào thiếu cân bằng hoặc không đại diện, mô hình sẽ suy diễn sai, phản ánh các định kiến hoặc tạo ra mẫu ảo. Các mô hình AI tạo sinh được huấn luyện trên khối lượng dữ liệu khổng lồ từ Internet, vốn chứa đa dạng thông tin, có chính xác và cũng có cả sự sai lệch, và tất nhiên, không thể bỏ qua những định kiến xã hội - văn hóa. Các mô hình chỉ mô phỏng các mẫu trong dữ liệu mà không phân biệt đúng - sai do đó có thể tái tạo những sai sót hoặc thiên kiến vốn có.
Thứ ba, ảo giác có thể xuất hiện khi mô hình có sự phức tạp quá cao, với số lượng tham số hoặc dữ liệu quá lớn, khiến chúng có xu hướng đưa ra những phản hồi khó giải thích.
Theo OpenAI, các bài kiểm thử nội bộ cho thấy mô hình o3 có tỷ lệ trả lời sai tới 33% trong bài kiểm tra PersonQA, vốn yêu cầu trả lời câu hỏi về nhân vật của công chúng; và lên đến 51% trong bài SimpleQA với những câu hỏi dữ kiện ngắn. Mô hình o4-mini, vốn được thiết kế gọn hơn để tối ưu tốc độ, thậm chí sai tới 79% trong bài kiểm tra SimpleQA. Điều đáng nói là phiên bản ChatGPT mới nhất GPT-4.5, ra mắt tháng 2/2025, có tỷ lệ sai thấp hơn - khoảng 37,1% trong SimpleQA - con số cho thấy những cải tiến nhưng chưa đủ để giải quyết triệt để vấn đề.
Các thử nghiệm độc lập của Vectara, công ty hàng đầu trong lĩnh vực phát hiện và ứng phó mối đe dọa mạng từ AI, cũng cho thấy tình hình tương tự. DeepSeek R1, mô hình của Trung Quốc, có tỷ lệ sai 14,3%, cao hơn hẳn DeepSeek-V2.5 (2,4%). IBM Granite 3.2, phiên bản 2B, có tỷ lệ sai lên đến 16,5%, cao hơn các thế hệ trước.

AI có thể bị ảo giác khi "quá tải" (Ảnh: aitificial.blog)
Các công ty phát triển AI đều đã lên tiếng thừa nhận thực tế này. OpenAI cho biết mô hình o3 có xu hướng trả lời dứt khoát hơn, khiến số câu trả lời đúng tăng nhưng số câu sai cũng nhiều hơn. CEO Sam Altman thậm chí cho rằng hiện tượng này giống "tính năng" hơn là "lỗi", vì "nhiều giá trị của hệ thống đến từ việc chúng luôn có câu trả lời". Google, Microsoft và Anthropic đều đang phát triển các công cụ cảnh báo như Microsoft Correction hay Google Vertex để gắn cờ những thông tin có khả năng sai, dù giới chuyên môn nhận định đây chỉ là giải pháp giảm thiểu chứ không khắc phục tận gốc rủi ro.
Theo một số nhà nghiên cứu, tuy khó có thể loại bỏ hoàn toàn ảo giác của AI, các nhà phát triển hoặc bản thân người dùng có thể giảm thiểu nguy cơ bằng cách dạy mô hình biết thừa nhận khi không biết câu trả lời, không hoàn toàn chắc chắn hoặc tự ý đặt giả thuyết nội dung, hoặc dùng các công cụ khác để truy xuất dữ liệu tin cậy trước khi trả lời, nâng cao chất lượng và độ đa dạng dữ liệu huấn luyện.
Không thể thay thế tư duy và trách nhiệm của con người
AI vận hành dựa trên thuật toán và dữ liệu huấn luyện do đó người dùng luôn cần thận trọng và kiểm chứng độ chính xác của nội dung trả ra từ phản hồi của AI. Đa dạng hóa nguồn tham khảo, kiểm tra chéo hoặc đối chiếu với những thông tin chính thống là cách đơn giản để "nắm đằng chuôi" trong cuộc chơi này.
Những công cụ có khả năng truy xuất dữ liệu, nói đơn giản là tìm kiếm thông tin từ nguồn tin cậy như giáo trình, bài nghiên cứu, văn bản pháp luật đang mở ra thêm những hướng nghiên cứu và phát triển mới để bổ sung cho năng lực mạnh mẽ của AI.
AI là công nghệ, là thuật toán, do đó yêu cầu càng rõ ràng và có cấu trúc mạch lạc càng dễ tạo ra phản hồi chi tiết. Chất lượng đầu ra của AI phụ thuộc nhiều vào cách đặt câu hỏi của người dùng. Những câu hỏi mơ hồ thường dẫn đến câu trả lời mơ hồ hoặc sai lệch. Một số nhà nghiên cứu đã chứng minh một kỹ thuật có tên "Chain of Thought Prompting" (gợi ý theo chuỗi suy luận) giúp tăng tăng minh bạch và độ chính xác trong các nhiệm vụ phức tạp. Kỹ thuật này có thể hiểu đơn giản là buộc mô hình giải thích từng bước, từ đó giúp tăng tính minh bạch do có diễn giải cụ thể cho người dùng cách mô hình suy luận.
Tham số đo lường sự sáng tạo cho AI, gọi là "nhiệt độ" (temperature), trong ngữ cảnh của các mô hình ngôn ngữ lớn là một siêu tham số được sử dụng để điều chỉnh sự ngẫu nhiên và sự sáng tạo của văn bản, nội dung được AI tạo ra. Đây là khái niệm được mượn từ vật lý thống kê và được tích hợp vào hoạt động của các mô hình ngôn ngữ lớn, cho phép người dùng điều chỉnh sự cân bằng giữa sự sáng tạo và tính nhất quán khi yêu cầu AI phản hồi.
AI tạo sinh là bước tiến công nghệ quan trọng nhưng đi kèm với đó là những rủi ro thông tin ngày càng phức tạp. Điều chúng ta chưa biết về vẫn nhiều hơn rất nhiều so với những gì đã nắm rõ, và khoảng cách ấy sẽ còn tiếp tục mở ra khi công nghệ hoàn toàn có thể phát triển nhanh hơn khả năng kiểm soát của con người. Vì vậy, điều quan trọng không chỉ là khai thác được sức mạnh của AI, mà còn phải chủ động đặt ra giới hạn, tiêu chuẩn và cơ chế giám sát.
Nguồn ANTG: https://antgct.cand.com.vn/khoa-hoc-van-minh/dung-de-ai-ao-giac-thay-con-nguoi-i782833/