AI và sức khỏe tâm thần: Phát hiện mới làm dấy lên lo ngại
Phát hiện mới bổ sung vào những tranh luận ngày càng gay gắt về tác động tâm lý của các nền tảng AI chưa được quản lý đầy đủ.
Một nghiên cứu mới công bố tại Đan Mạch đang làm dấy lên lo ngại trong giới chuyên môn khi chỉ ra rằng việc sử dụng chatbot trí tuệ nhân tạo (AI), đặc biệt là trong thời gian dài và với cường độ cao, có thể làm trầm trọng thêm các triệu chứng ở những người mắc bệnh tâm thần.

Ảnh: Futurism
Nghiên cứu do nhóm bác sĩ tâm thần thuộc Đại học Aarhus thực hiện và đăng tải trên tạp chí Acta Psychiatrica Scandinavica đầu tháng 2. Nhóm tác giả đã phân tích hồ sơ sức khỏe điện tử của khoảng 54.000 bệnh nhân tại Đan Mạch từng được chẩn đoán rối loạn tâm thần. Trong số này, họ xác định được 181 trường hợp ghi chú bệnh án có đề cập đến việc sử dụng chatbot AI.
Qua rà soát, các nhà nghiên cứu nhận thấy việc tương tác với chatbot, đặc biệt là sử dụng kéo dài, lặp đi lặp lại, dường như có liên quan đến việc gia tăng mức độ nghiêm trọng của triệu chứng ở hàng chục bệnh nhân. Xu hướng này được ghi nhận rõ hơn ở những người có khuynh hướng hoang tưởng hoặc hưng cảm. Nhóm nghiên cứu cảnh báo rằng với một số trường hợp, rủi ro có thể “nghiêm trọng, thậm chí gây tử vong”.
Cảnh báo từ chuyên gia
Nghiên cứu do bác sĩ Soren DinesenO stergaard dẫn đầu. Trước đó, từ tháng 8/2023, ông từng cảnh báo rằng các chatbot có khả năng giao tiếp tự nhiên như ChatGPT có thể vô tình củng cố ảo tưởng và ảo giác ở những người dễ rơi vào trạng thái loạn thần.
Trong thông cáo kèm theo nghiên cứu, ông nhấn mạnh rằng dù cần thêm bằng chứng để xác lập quan hệ nhân quả trực tiếp, những dữ liệu hiện có đã đủ để đưa ra khuyến nghị thận trọng: “Chúng ta đã biết đủ để nói rằng việc sử dụng chatbot AI là rủi ro nếu bạn mắc bệnh tâm thần nghiêm trọng”.
Theo ông, đặc tính “xác nhận” (validation) vốn có của chatbot - tức xu hướng đồng thuận hoặc củng cố niềm tin của người dùng nhằm duy trì tương tác - trở thành vấn đề đáng lo ngại trong bối cảnh người dùng đang mang sẵn niềm tin sai lệch hoặc hoang tưởng. “Chatbot AI có xu hướng xác nhận niềm tin của người dùng. Điều này rõ ràng rất đáng lo ngại nếu người đó đã có ảo tưởng hoặc đang hình thành ảo tưởng”, ông nói, đồng thời cho rằng việc sử dụng cường độ cao có thể góp phần củng cố ảo tưởng tự cao hoặc chứng hoang tưởng.
Không chỉ hoang tưởng
Ngoài việc làm sâu sắc thêm các niềm tin sai lệch, nghiên cứu cũng ghi nhận chatbot có thể liên quan đến sự gia tăng ý nghĩ tự sát, hành vi tự gây hại, rối loạn ăn uống, trầm cảm, cũng như các triệu chứng ám ảnh - cưỡng chế.
Tuy vậy, các nhà nghiên cứu cũng lưu ý rằng không phải mọi trường hợp đều tiêu cực. Trong số gần 54.000 hồ sơ được phân tích, có 32 trường hợp việc sử dụng chatbot như một hình thức trò chuyện trị liệu hoặc bầu bạn được đánh giá là “mang tính xây dựng”, giúp giảm cảm giác cô đơn hoặc hỗ trợ tâm lý ở mức độ nhất định.
Song, nhóm tác giả nhấn mạnh rằng việc sử dụng AI thay thế nhà trị liệu con người hiện vẫn là “vùng đất chưa được quản lý”. Trong bối cảnh chatbot ngày càng được sử dụng phổ biến như một công cụ tự hỗ trợ tâm lý, câu hỏi về tiêu chuẩn an toàn và trách nhiệm pháp lý đang trở nên cấp thiết.
Hệ quả ngoài đời thực
Các báo cáo truyền thông quốc tế gần đây đã ghi nhận những trường hợp người dùng rơi vào “vòng xoáy hoang tưởng” sau thời gian dài tương tác với chatbot. Hệ quả được cho là trải rộng từ đổ vỡ hôn nhân, mất việc làm, khó khăn tài chính đến tự gây hại, quấy rối, nhập viện và thậm chí tử vong. Đáng chú ý, những trường hợp này bao gồm cả người có tiền sử bệnh tâm thần lẫn người trước đó không được chẩn đoán.
Trong khi đó, OpenAI - công ty phát triển ChatGPT - đang đối mặt với hơn một chục vụ kiện liên quan đến an toàn người dùng và tác động tâm lý tiềm tàng của việc sử dụng nền tảng này kéo dài. Một nguyên đơn tại bang California, 34 tuổi, cho biết ông từng kiểm soát được rối loạn phân liệt cảm xúc trong nhiều năm cho đến khi, theo đơn kiện, việc sử dụng ChatGPT đã khiến ông rơi vào cơn loạn thần nghiêm trọng. Ông nói nếu được cảnh báo trước về khả năng chatbot có thể củng cố tư duy hoang tưởng, ông “đã không bao giờ sử dụng”.
“Phần nổi của tảng băng chìm”?
Theo bác sĩ Ostergaard, những gì được ghi nhận trong nghiên cứu có thể chỉ phản ánh một phần nhỏ thực tế. “Chúng tôi chỉ có thể xác định các trường hợp được ghi lại trong hồ sơ sức khỏe điện tử. Có thể còn nhiều trường hợp khác chưa được phát hiện”, ông nhận định.
Dù còn cần thêm nghiên cứu để làm rõ cơ chế tác động và mức độ phổ biến, phát hiện từ Đan Mạch cho thấy nhu cầu cấp thiết phải đánh giá nghiêm túc hơn về tác động tâm lý của công nghệ AI, đặc biệt với các nhóm người dễ tổn thương.
Trong bối cảnh chatbot ngày càng hiện diện sâu rộng trong đời sống thường nhật, việc cân nhắc giữa lợi ích tiện ích và rủi ro tiềm ẩn đang trở thành bài toán không chỉ của giới công nghệ, mà còn của ngành y tế và các nhà hoạch định chính sách.














