Một startup kết hợp nhiều mô hình để giảm ảo giác ở AI

Một startup Đức kết hợp nhiều mô hình AI. Liệu đây có thể là chìa khóa giảm thiểu tình trạng ảo giác ở AI?

Các mô hình AI vốn dễ mắc sai lầm: hiện tượng “ảo giác” đã thành vấn đề quen thuộc với các chatbot như ChatGPT hay Claude. Công ty Embraceable AI có trụ sở tại Karlsruhe, đặt mục tiêu giảm thiểu đáng kể tình trạng này nhờ công nghệ riêng. Vậy bí quyết nằm ở đâu?

Christian Gilcher tìm cách phát triển phần mềm giảm ảo giác cho AI

Christian Gilcher tìm cách phát triển phần mềm giảm ảo giác cho AI

Người sáng lập Christian Gilcher thường gọi công nghệ mà startup của ông phát triển là một “cỗ máy biết suy nghĩ”. Theo ông, phần mềm này kết hợp nhiều mô hình AI khác nhau để mang đến cho doanh nghiệp giải pháp tối ưu cho từng ứng dụng cụ thể.

Khách hàng đến từ lĩnh vực tài chính

Trong một cuộc phỏng vấn với trang T3n, Gilcher đã giải thích ý tưởng đằng sau mô hình AI này bằng ví dụ thực tế từ một khách hàng trong ngành tài chính. Ngân hàng đó sử dụng E1 - tên gọi của hệ thống AI, để thực hiện đánh giá rủi ro tài khoản, trong đó có nhiệm vụ phát hiện hoạt động rửa tiền.

Theo Gilcher, đây là công việc khó khăn đối với nhân viên, một phần vì họ phải tuân thủ hàng loạt quy định phức tạp. Toàn bộ bộ quy tắc này được tích hợp vào nền tảng của Embraceable AI. Nhiệm vụ cũng phải được mô tả chi tiết, tương tự như việc viết một “prompt”.

Để xử lý, E1 sẽ truy cập nhiều mô hình AI bên ngoài, từ đó tạo ra nhiều giả thuyết khác nhau cho cùng một bài toán. Sau đó, hệ thống tiến hành xử lý và kiểm chứng các giả thuyết dựa trên tiêu chí mà khách hàng đưa ra. Gilcher so sánh quy trình kiểm chứng giả thuyết này với cách con người suy luận.

Giảm thiểu “ảo giác” nhờ kiểm chứng giả thuyết

Người dùng có thể nhận kết quả chỉ sau vài phút. Quan trọng hơn, mọi bước trong quá trình đều có thể truy xuất, giúp khách hàng hiểu rõ hệ thống đã đi đến kết quả cuối cùng như thế nào.

Theo Gilcher, E1 có thể bù đắp điểm yếu của từng mô hình AI đơn lẻ. Việc kiểm chứng giả thuyết giúp giảm thiểu “ảo giác”. Tuy vậy, ông cũng thừa nhận rằng không thể loại bỏ hoàn toàn, bởi bản thân dữ liệu huấn luyện của các mô hình bên ngoài vẫn là một “hộp đen” mà Embraceable AI không thể kiểm soát.

Bản thân Gilcher từng làm việc nhiều năm trong lĩnh vực tài chính, từng phụ trách mảng công nghệ thông tin tại Ngân hàng Dresdner. Trong tập t3n Interview được liên kết, ông chia sẻ thêm về quá trình phát triển cũng như mục tiêu mà startup của mình đang hướng đến.

Hiện tượng ảo giác AI là gì?

Hiện tượng "ảo giác" (hallucinations) ở các mô hình AI là khi các mô hình ngôn ngữ lớn (LLM) như ChatGPT hoặc Gemini đưa ra thông tin không chính xác, vô nghĩa hoặc hoàn toàn bịa đặt, mặc dù nghe có vẻ rất thuyết phục và hợp lý. Có thể hình dung đơn giản là: AI đang tự "bịa ra" thông tin.

Tại sao lại xảy ra hiện tượng này? Lý do chính là cách thức hoạt động của các mô hình AI ngôn ngữ. Chúng không được thiết kế để "biết" sự thật, mà là để dự đoán từ tiếp theo có khả năng xuất hiện nhất trong một câu hoặc một đoạn văn, dựa trên kho dữ liệu khổng lồ mà chúng đã được huấn luyện.

Có 3 nguyên nhân cơ bản dẫn đến hiện tượng này:

Dữ liệu huấn luyện thiếu sót hoặc sai lệch: Nếu dữ liệu đầu vào có chứa thông tin không chính xác, cũ hoặc không đầy đủ, AI sẽ học theo những "mẫu" đó và có thể tái tạo lại chúng dưới dạng thông tin sai lệch.

Thiếu kiến thức thực tế: AI không có nhận thức về thế giới thực. Nó chỉ xử lý các mẫu văn bản. Vì vậy, khi được hỏi về một chủ đề ngoài dữ liệu mà nó được huấn luyện, nó không thể nói "tôi không biết". Thay vào đó, nó sẽ cố gắng "lấp đầy khoảng trống" bằng cách kết hợp các mẫu văn bản quen thuộc, tạo ra một câu trả lời nghe có vẻ hợp lý nhưng thực chất là sai.

Sự mơ hồ trong câu hỏi: Khi câu lệnh của người dùng quá chung chung, không rõ ràng hoặc yêu cầu một điều gì đó bất khả thi, AI có xu hướng đưa ra một câu trả lời mang tính phỏng đoán, dẫn đến "ảo giác".

Các biểu hiện ảo giác thường gặp

Bịa ra sự kiện, nhân vật: AI có thể tạo ra một nhà khoa học giả với một phát minh không có thật, hoặc mô tả một sự kiện lịch sử chưa từng xảy ra.

Trích dẫn nguồn sai: Một trong những "ảo giác" phổ biến nhất là khi AI tạo ra các đường link hoặc tên sách, bài báo hoàn toàn không tồn tại để hỗ trợ cho câu trả lời của nó.

Thêm thắt thông tin: Khi tóm tắt một văn bản, AI có thể thêm vào những chi tiết không có trong văn bản gốc. Điều này rất nguy hiểm vì người dùng bị che mắt khi đối diện với tình cảnh "vàng thau" lẫn lộn và có thể dẫn đến "ngộ độc thông tin".

Hiện tượng ảo giác là một trong những thách thức lớn nhất mà các nhà nghiên cứu AI đang cố gắng giải quyết, bởi nó ảnh hưởng trực tiếp đến độ tin cậy của các mô hình trong các ứng dụng quan trọng như y tế, pháp luật hay giáo dục.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/mot-startup-ket-hop-nhieu-mo-hinh-de-giam-ao-giac-o-ai-237202.html