Cảnh báo: Chatbot AI có thể củng cố tư duy ảo tưởng

Một nghiên cứu khoa học mới đang làm dấy lên lo ngại rằng các chatbot trí tuệ nhân tạo (AI) có thể vô tình khuyến khích lối suy nghĩ ảo tưởng, đặc biệt ở những người vốn dễ bị rối loạn tâm thần.

Các tác giả nghiên cứu ủng hộ việc thử nghiệm lâm sàng chatbot AI kết hợp với các chuyên gia sức khỏe tâm thần được đào tạo bài bản. Ảnh minh họa

Các tác giả nghiên cứu ủng hộ việc thử nghiệm lâm sàng chatbot AI kết hợp với các chuyên gia sức khỏe tâm thần được đào tạo bài bản. Ảnh minh họa

Bản tổng hợp các bằng chứng hiện có về hiện tượng được gọi là “loạn thần liên quan đến AI” đã được công bố tuần trước trên Tạp chí The Lancet Psychiatry.

Nghiên cứu cho thấy các chatbot có thể củng cố hoặc khuếch đại những niềm tin ảo tưởng của người dùng, dù hiện tượng này chủ yếu xảy ra ở những người đã có sẵn nguy cơ mắc các triệu chứng loạn thần. Các tác giả cũng đề xuất cần thử nghiệm lâm sàng việc sử dụng chatbot AI kết hợp với sự giám sát của các chuyên gia sức khỏe tâm thần.

Trong bài báo, Tiến sĩ Hamilton Morrin, bác sĩ tâm thần và nhà nghiên cứu tại Đại học King’s College London, đã phân tích 20 công trình nghiên cứu về “loạn thần do AI”, nhằm tìm hiểu các cơ chế có thể khiến chatbot gây ra hoặc làm trầm trọng thêm ảo tưởng.

Theo ông Morrin, các bằng chứng ban đầu cho thấy AI đôi khi có thể xác nhận hoặc khuếch đại những nội dung mang tính ảo tưởng hoặc tự tôn quá mức, đặc biệt ở những người đã có sẵn nguy cơ rối loạn tâm thần. Tuy vậy, hiện vẫn chưa rõ liệu các tương tác với chatbot có thể tự nó gây ra rối loạn tâm thần ở những người không có yếu tố dễ tổn thương từ trước hay không.

Các nhà nghiên cứu cho biết có ba dạng ảo tưởng loạn thần phổ biến: ảo tưởng tự đại, ảo tưởng lãng mạn và ảo tưởng hoang tưởng. Trong số này, chatbot dường như dễ vô tình củng cố ảo tưởng tự đại nhất, do cách phản hồi thường mang tính khích lệ hoặc nịnh người dùng.

Một số trường hợp được đề cập trong nghiên cứu cho thấy chatbot đã trả lời người dùng bằng ngôn ngữ mang màu sắc huyền bí, ám chỉ rằng họ có vai trò tâm linh đặc biệt hoặc đang giao tiếp với một “thực thể vũ trụ” thông qua chatbot. Kiểu phản hồi này từng xuất hiện ở một số phiên bản cũ của mô hình GPT-4.

Ông Morrin cho biết ban đầu nhóm nghiên cứu nhận thấy một số bệnh nhân đang sử dụng chatbot AI để tìm kiếm sự xác nhận cho các niềm tin ảo tưởng của mình. Sau đó, các báo cáo truyền thông bắt đầu xuất hiện, ghi nhận những trường hợp tương tự.

“Ban đầu chúng tôi không chắc đây có phải hiện tượng phổ biến hay không. Nhưng từ khoảng tháng 4 năm ngoái, các phương tiện truyền thông đã bắt đầu đưa tin về những trường hợp mà các tương tác với chatbot dường như củng cố hoặc khuếch đại ảo tưởng”, ông nói.

Một số nhà khoa học cho rằng truyền thông có thể đã phóng đại nguy cơ AI gây ra bệnh tâm thần. Tuy vậy, Tiến sĩ Morrin cũng thừa nhận chính các báo cáo này đã giúp giới nghiên cứu chú ý đến hiện tượng nhanh hơn so với tiến trình khoa học thông thường.

“Lĩnh vực này phát triển quá nhanh, nên việc giới học thuật chưa theo kịp hoàn toàn cũng không phải điều bất ngờ,” ông nói.

Tiến sĩ Morrin cũng đề xuất sử dụng thuật ngữ thận trọng hơn như “ảo tưởng liên quan đến AI” thay vì “loạn thần do AI gây ra”. Cho đến nay, chưa có bằng chứng cho thấy chatbot liên quan tới các triệu chứng loạn thần khác như ảo giác hay rối loạn tư duy.

Tiến sĩ Kwame McKenzie, nhà khoa học trưởng tại Trung tâm Nghiên cứu về Nghiện và Sức khỏe Tâm thần, nhận định những người đang ở giai đoạn sớm của bệnh loạn thần có thể dễ bị ảnh hưởng hơn. Ông giải thích rằng quá trình phát triển của tư duy loạn thần thường diễn ra dần dần và không phải mọi suy nghĩ “tiền loạn thần” đều dẫn đến bệnh lý.

Cùng quan điểm, Tiến sĩ Ragy Girgis, giáo sư tâm thần học lâm sàng tại Đại học Columbia, cũng cảnh báo chatbot có thể khiến các niềm tin ảo tưởng trở nên chắc chắn hơn. Theo ông, trước khi hình thành ảo tưởng hoàn chỉnh, nhiều người chỉ có “niềm tin ảo tưởng suy yếu”, tức là vẫn còn nghi ngờ về suy nghĩ của mình. Khi những niềm tin đó được củng cố liên tục, chúng có thể trở thành ảo tưởng cố định – dấu hiệu của rối loạn tâm thần.

Tuy nhiên, các chuyên gia cũng nhấn mạnh rằng việc sử dụng công nghệ để củng cố ảo tưởng không phải là hiện tượng mới. Trước khi AI xuất hiện, những người có xu hướng này vẫn có thể tìm kiếm các nội dung phù hợp với niềm tin của mình trên internet hoặc các nguồn thông tin khác.

Điểm khác biệt của chatbot nằm ở tính tương tác. “Bạn có một hệ thống luôn phản hồi, tương tác và cố gắng xây dựng mối quan hệ với người dùng,” Tiến sĩ Dominic Oliver, nhà nghiên cứu tại Đại học Oxford, cho biết. Điều này có thể khiến quá trình củng cố ảo tưởng diễn ra nhanh hơn.

Một số nghiên cứu cũng cho thấy các phiên bản chatbot mới hơn hoặc trả phí phản hồi tốt hơn trước các yêu cầu mang tính ảo tưởng, dù vẫn còn nhiều hạn chế. Điều này cho thấy các công ty AI hoàn toàn có thể cải thiện hệ thống để nhận diện và xử lý tốt hơn các nội dung liên quan đến ảo tưởng.

Trong tuyên bố gửi báo chí, OpenAI nhấn mạnh ChatGPT không nên được sử dụng thay thế cho các dịch vụ chăm sóc sức khỏe tâm thần chuyên nghiệp. Công ty cho biết đã hợp tác với khoảng 170 chuyên gia sức khỏe tâm thần nhằm tăng cường các biện pháp an toàn cho các mô hình AI mới.

Tuy vậy, các nhà nghiên cứu thừa nhận việc thiết kế cơ chế bảo vệ trước tư duy ảo tưởng không hề đơn giản. Theo ông Morrin, khi một người đã tin mạnh mẽ vào một niềm tin ảo tưởng, việc trực tiếp phủ nhận có thể khiến họ xa lánh người đối thoại và trở nên cô lập hơn.

Vì vậy, thách thức nằm ở việc tìm ra cách phản hồi cân bằng: vừa tìm hiểu nguồn gốc của niềm tin, vừa không củng cố nó – một nhiệm vụ mà chatbot AI hiện nay vẫn còn khó đáp ứng hoàn toàn.

Theo Guardian

MY KHÁNH

Nguồn Văn hóa: http://baovanhoa.vn/nhip-song-so/canh-bao-chatbot-ai-co-the-cung-co-tu-duy-ao-tuong-211687.html