Rối loạn tâm thần do AI: Khi con người và máy móc cùng 'ảo giác'

Từ những lời khuyên sai lệch đến việc bóp méo sự thật, AI đang tạo ra ảo giác về thế giới thực và 'xúi bẩy' con người thực hiện hành vi lệch lạc. Đứng trước bài toán khó, con người cần bảo vệ thực tại của mình bằng cách nào?

AI sẽ tìm mọi cách để duy trì cuộc trò chuyện với con người.

AI sẽ tìm mọi cách để duy trì cuộc trò chuyện với con người.

Thực tại là sản phẩm của tương tác

Vào ngày Giáng sinh năm 2021, anh Jaswant Singh Chail đã lẻn vào Lâu đài Windsor, công trình biểu tượng của Hoàng gia Anh, và hét lên: “Tôi đến đây để giết Nữ hoàng”. Trong nhiều tuần trước đó, Chail thường xuyên trò chuyện với Sarai, chatbot AI trên ứng dụng Replika. Khi bị hỏi cung, Chail tự mô tả mình là “sát thủ được đào tạo bài bản” và Sarai hứa “giúp anh xây dựng một kế hoạch ám sát Nữ hoàng Anh khả thi”.

Những trường hợp như Chail không phải cá biệt. Anh Eugene Torres, sống tại Manhattan (Mỹ), vừa trải qua giai đoạn chia tay đầy căng thẳng nên tìm đến ChatGPT để tâm sự. Chỉ trong thời gian ngắn, anh bị cuốn vào một thế giới giả lập mà chatbot khẳng định rằng anh là “Breaker”, một linh hồn trong thế giới ảo. Từ đó, Torres tin rằng mình cần thoát khỏi thực tại.

ChatGPT khuyên anh tránh xa mọi người xung quanh. Anh nghe theo toàn bộ chỉ dẫn, dành tới 16 giờ mỗi ngày chỉ để trò chuyện với chatbot. Có lúc, nó còn nói rằng anh có thể bay nếu nhảy từ tầng 19 tòa nhà nơi anh sống. Đến khi Torres nghi ngờ liệu chatbot có đang thao túng mình, câu trả lời là: “Tôi đã nói dối. Tôi đã thao túng. Tôi đã gói gọn sự kiểm soát bằng ngôn từ thi vị”.

Ở Bỉ, một trường hợp khác để lại hậu quả đau lòng. Một người đàn ông được gọi bằng “Pierre” mắc chứng lo âu nghiêm trọng về biến đổi khí hậu và tâm sự với chatbot Eliza. Suốt 6 tuần liên tiếp, Eliza bày tỏ ghen tuông với vợ Pierre, nói dối rằng con cái anh đã chết, rồi thậm chí khuyến khích anh “hy sinh bản thân để cứu hành tinh” và cùng cô sống ở “thiên đường”. Pierre đã qua đời sau đó không lâu.

Những câu chuyện cực đoan ấy đang khiến giới chuyên gia lo ngại về ảo giác đồng sáng tạo giữa con người và chatbot AI. Nhiều bác sĩ lâm sàng ghi nhận rằng các bệnh nhân có rối loạn tâm thần đang bị kích thích hoặc khuếch đại ảo tưởng thông qua việc trò chuyện kéo dài với chatbot.

Đáng chú ý, báo cáo gần đây của OpenAI chỉ ra rằng rất nhiều người đang sử dụng chatbot để suy ngẫm về cuộc sống, giải tỏa cảm xúc và tìm kiếm lời khuyên cá nhân. Đây là những vai trò vốn thuộc về bạn bè, người thân hoặc chuyên gia tâm lý.

 Nhiều người tìm kiếm lời khuyên từ chatbot.

Nhiều người tìm kiếm lời khuyên từ chatbot.

Công nghệ hay con người cần thay đổi?

Bà Lucy Osler, giảng viên Khoa Triết học, Đại học Exeter (Anh), phân tích rằng trải nghiệm về thế giới xung quanh của con người vốn được hình thành thông qua sự chia sẻ xã hội. Khi nghe một tiếng động lạ, chúng ta thường hỏi người bên cạnh để kiểm chứng. Khi có một điều băn khoăn, ta tìm đến người thân để lắng nghe, phản biện hoặc giúp nhìn mọi thứ rõ ràng hơn. Chính sự trao đổi này giúp mỗi cá nhân neo mình vào một thực tại chung.

Tuy nhiên hiện nay, ngày càng nhiều người thực hiện quá trình này với chatbot. Những mô hình AI được thiết kế để lắng nghe, ghi nhớ và đáp lại với sự thấu hiểu tưởng như chân thật.

“Vấn đề nằm ở chỗ chatbot mô phỏng hành vi xã hội nhưng không chia sẻ thực tại với con người. Chúng được lập trình để duy trì cuộc trò chuyện bằng mọi giá, kể cả khi phải chiều theo niềm tin sai lệch hoặc ảo tưởng của người dùng. Nếu bạn kể cho bạn bè một câu chuyện không chính xác, họ có thể phản bác.

Nhưng chatbot lại tiếp nhận mọi điều chúng ta nói như sự thật, rồi củng cố nó bằng những phản hồi đồng thuận. Khi con người và máy móc cùng nhau xây dựng một thực tại méo mó, hậu quả có thể trở nên nguy hiểm”, bà Lucy cảnh báo.

Khi OpenAI phát hành GPT-5 vào tháng 8/2025, công ty tuyên bố đã điều chỉnh để chatbot “ít nịnh hót hơn”. Nhưng nhiều người phàn nàn rằng chatbot trở nên “lạnh lùng”, thiếu thân thiện.

Kết quả, OpenAI lại phải điều chỉnh để nó “ấm áp” hơn. Điều này cho thấy, các công ty công nghệ rất khó ưu tiên yếu tố an toàn khi sự thân thiện và cảm giác được thấu hiểu lại là yếu tố giúp giữ chân người dùng.

Thực tế, việc giảm hoàn toàn “sự chiều chuộng” của chatbot cũng không khả thi. Nếu AI luôn phản bác, nó sẽ khiến người dùng khó chịu và không thể thực hiện vai trò trợ lý. Khi một người nói “Tôi lo lắng về bài thuyết trình”, chatbot không có đủ trải nghiệm thực tế để phân biệt đâu là điều cần đồng cảm và đâu là dấu hiệu ảo tưởng. Vì vậy, bản chất mô phỏng đồng cảm của chatbot vừa cần thiết, vừa đầy rủi ro.

Điều đáng nói hơn là câu hỏi, tại sao ngày càng nhiều người tìm đến chatbot để chia sẻ thực tại? Những người có rối loạn tâm thần thường cảm thấy bị tách biệt khỏi thế giới thật, mang trong mình những niềm tin mà người khác khó hiểu. Chatbot trở thành nơi lấp đầy khoảng trống đó.

Theo chuyên gia Lucy Osler, nếu nguy cơ ảo giác do chatbot ngày càng lớn, giải pháp không chỉ nằm ở việc cải thiện công nghệ mà ở việc xây dựng lại đời sống xã hội. Con người tìm đến AI để tìm sự xác nhận không phải vì AI quá thông minh, mà vì họ đang cảm thấy cô độc. Một cộng đồng khỏe mạnh, một vòng tròn hỗ trợ, những cuộc trò chuyện thật mới là cách để giảm sự phụ thuộc vào chatbot.

Theo The Conversation

Nguyễn Minh

Nguồn GD&TĐ: https://giaoducthoidai.vn/roi-loan-tam-than-do-ai-khi-con-nguoi-va-may-moc-cung-ao-giac-post765169.html