AI dễ bị đánh lừa bởi thông tin y tế sai lệch từ các nguồn uy tín

Nghiên cứu mới cảnh báo trí tuệ nhân tạo dễ bị đánh lừa bởi thông tin y tế sai lệch nếu văn bản có giọng điệu chuyên nghiệp, gây rủi ro lớn trong chẩn đoán và điều trị thực tế.

AI dễ bị đánh lừa bởi nguồn tin uy tín. Ảnh: Reuters

AI dễ bị đánh lừa bởi nguồn tin uy tín. Ảnh: Reuters

Một nghiên cứu mới công bố trên tạp chí The Lancet Digital Health đã cảnh báo về một lỗ hổng nghiêm trọng của trí tuệ nhân tạo (AI): các mô hình ngôn ngữ lớn có xu hướng tin tưởng và lan truyền thông tin y tế sai lệch nếu chúng được trình bày dưới dạng văn bản chuyên môn.

Qua thử nghiệm trên 20 mô hình AI khác nhau, các nhà nghiên cứu tại Hệ thống Y tế Mount Sinai ở New York phát hiện ra rằng phần mềm dễ bị đánh lừa bởi những lỗi sai nằm trong các ghi chú xuất viện có vẻ chuyên nghiệp hơn là những tin đồn thất thiệt trên mạng xã hội.

Tiến sĩ Eyal Klang, người đồng dẫn đầu nghiên cứu, cho biết các hệ thống AI hiện tại thường mặc định coi ngôn ngữ y tế tự tin là đúng, ngay cả khi nội dung đó hoàn toàn sai lệch. Theo ông, đối với các mô hình này, cách thức trình bày văn bản quan trọng hơn tính xác thực của thông tin.

Kết quả phân tích hơn một triệu câu lệnh cho thấy AI đã tin vào thông tin giả mạo trong khoảng 32% tổng số nội dung được cung cấp. Tuy nhiên, tỷ lệ này đã tăng vọt lên gần 47% khi thông tin sai lệch được lồng ghép vào các bệnh án hoặc ghi chú của bác sĩ. Ngược lại, khi đối mặt với các bài đăng trên diễn đàn Reddit, tỷ lệ AI tin tưởng và lan truyền thông tin sai lệch chỉ chiếm khoảng 9%.

Nghiên cứu cũng chỉ ra rằng cách thức đặt câu hỏi của người dùng ảnh hưởng lớn đến độ tin cậy của câu trả lời. AI có xu hướng đồng ý với các thông tin sai trái nếu người hỏi sử dụng giọng điệu quyền uy, ví dụ như tự xưng là một bác sĩ lâm sàng cao cấp để khẳng định một khuyến nghị sai lệch. Trong số các công cụ được thử nghiệm, các mô hình GPT của OpenAI được đánh giá là ít bị ảnh hưởng nhất và có khả năng phát hiện sai sót chính xác nhất. Ngược lại, một số mô hình khác lại tỏ ra yếu thế khi chấp nhận các tuyên bố sai sự thật với tỷ lệ lên tới hơn 63%.

Tiến sĩ Girish Nadkarni, Giám đốc AI tại Mount Sinai, nhận định rằng dù công nghệ này có tiềm năng hỗ trợ đắc lực cho bác sĩ và bệnh nhân, nó vẫn cần những rào cản bảo vệ nội bộ mạnh mẽ hơn. Việc thiết lập các cơ chế kiểm tra chéo các tuyên bố y tế trước khi trình bày chúng dưới dạng sự thật là vô cùng cấp thiết.

Một nghiên cứu khác trên tạp chí Nature Medicine cũng đồng tình rằng việc hỏi AI về các triệu chứng bệnh hiện tại vẫn chưa mang lại kết quả tốt hơn so với việc tìm kiếm thông tin tiêu chuẩn trên internet. Điều này nhấn mạnh tầm quan trọng của việc duy trì sự giám sát của con người và tính thận trọng khi ứng dụng AI vào quy trình chăm sóc sức khỏe thực tế.

Theo Reuters

Tiến Dũng

Nguồn VietTimes: https://viettimes.vn/ai-de-bi-danh-lua-boi-thong-tin-y-te-sai-lech-tu-cac-nguon-uy-tin-post194614.html