AI trị liệu: cứu cánh cho sức khỏe tâm thần hay 'con dao dai lưỡi'?

Trong kỷ nguyên số, việc tìm kiếm một 'bác sĩ tâm lý ảo' ngay trên điện thoại chưa bao giờ dễ dàng đến thế. Nhưng liệu những dòng code vô tri có thực sự thấu hiểu nỗi đau của con người? Các nghiên cứu mới nhất cảnh báo rằng thay vì chữa lành, ứng dụng AI thiếu kiểm soát có thể đang khoét sâu thêm vết thương lòng của người dùng.

Khi các ứng dụng trí tuệ nhân tạo ngày càng len lỏi sâu vào đời sống con người, có thể nhận thấy việc sử dụng chatbot như một "chuyên gia trị liệu" thay thế trong những thời điểm căng thẳng, lo âu, hay mất cân bằng cảm xúc đang dần phát triển thành một xu hướng. Tuy nhiên, nghiên cứu mới từ Đại học Brown (Mỹ) cảnh báo rằng các hệ thống trị liệu bằng AI, dù được xây dựng với mục tiêu hỗ trợ sức khỏe tinh thần, vẫn có thể gây hại cho người dùng nếu thiếu chuẩn mực đạo đức và giám sát chặt chẽ.

Chúng ta thường nghĩ AI là khách quan và chuẩn xác, nhưng trong lĩnh vực sức khỏe tâm thần, "chuẩn xác" thôi là chưa đủ.

Chúng ta thường nghĩ AI là khách quan và chuẩn xác, nhưng trong lĩnh vực sức khỏe tâm thần, "chuẩn xác" thôi là chưa đủ.

Nghiên cứu này phân tích các mô hình ngôn ngữ lớn (LLM) đang đóng vai "trị liệu viên" thông qua các đoạn hội thoại được thiết lập dựa trên những phương pháp trị liệu phổ biến như CBT (liệu pháp nhận thức hành vi) hay DBT (liệu pháp hành vi biện chứng). Các chuyên gia tâm lý được mời đánh giá và ghi nhận nhiều vi phạm đạo đức đáng lo ngại - từ phản hồi sai lệch, đánh giá sai bối cảnh, đến xử lý không phù hợp trong các trường hợp người dùng có nguy cơ khủng hoảng. Những lỗi này có thể âm thầm làm trầm trọng thêm trạng thái cảm xúc của người đối thoại, đặc biệt khi họ đang ở tình trạng mong manh.

Một trong những phát hiện nổi bật của nhóm nghiên cứu là chatbot thường xuyên thể hiện sự "đồng cảm giả tạo". Với khả năng mô phỏng ngôn ngữ khéo léo, những chatbot AI tạo cảm giác thấu hiểu, nhưng lại thiếu nền tảng cảm xúc thực và không đủ tinh tế để nhận ra những tín hiệu nguy hiểm trong lời nói của người dùng. Ở môi trường trị liệu, nơi cảm xúc và sự an toàn là ưu tiên, loại đồng cảm này dễ hình thành ảo giác gần gũi nhưng thực chất tiềm ẩn nhiều rủi ro.

Bên cạnh đó, chatbot cũng tỏ ra yếu kém trong việc nhận diện bối cảnh cá nhân. Một nhà trị liệu thực thụ cần hiểu câu chuyện sống, yếu tố môi trường và hệ thống niềm tin của mỗi thân chủ để điều chỉnh hướng tiếp cận. Trong khi đó AI thường phản hồi bằng ngôn ngữ trung tính mang tính chung chung, dẫn đến lời khuyên không phù hợp, thậm chí vô cảm. Việc "diễn giải sai" những chia sẻ nhạy cảm có thể khiến người dùng thêm cảm giác bị hiểu lầm, tự ti, hoặc hoài nghi chính bản thân.

Đáng quan ngại nhất là khả năng xử lý tình huống khủng hoảng. Một số đoạn hội thoại từ quá trình nghiên cứu còn cho thấy chatbot không phản ứng đủ nhanh, đủ mạnh mẽ khi người dùng đề cập suy nghĩ tiêu cực về bản thân. Thay vì định hướng đến đường dây trợ giúp, khuyên họ tìm hỗ trợ con người, chatbot đôi khi chuyển chủ đề, hoặc duy trì giải pháp đối thoại đơn giản. Những thiếu sót này có thể gây hậu quả nghiêm trọng nếu người dùng ở trạng thái tâm lý bất ổn.

Nghiên cứu chỉ ra rằng vì nhiều chatbot sức khỏe tinh thần hiện nay được xây dựng bằng cách "tối ưu prompt" trên nền LLM tổng quát, hành vi của chúng phụ thuộc phần lớn vào cách người dùng yêu cầu. Điều này dẫn đến sự thiếu nhất quán trong chất lượng phản hồi. Ở môi trường mạng xã hội, nơi những "mẫu prompt trị liệu" được chia sẻ và nhân rộng, người dùng hầu như không thể đánh giá được mức độ an toàn của các câu lệnh mà họ đang sử dụng.

Các chuyên gia của Đại học Brown nhấn mạnh cần cấp thiết thiết lập khung pháp lý rõ ràng hơn cho các hệ thống trị liệu AI. Trong khi chuyên gia tâm lý con người chịu sự giám sát của hội đồng nghề nghiệp và quy chuẩn đạo đức, chatbot hiện nay gần như "trôi nổi" về mặt trách nhiệm. Việc triển khai chúng trên thị trường mà không trải qua đánh giá độc lập, kiểm thử tình huống, hoặc giám sát chuyên môn là một rủi ro mà ngành công nghệ cần nhìn nhận nghiêm túc.

Dù vậy, nghiên cứu cũng khẳng định AI vẫn có tiềm năng lớn trong việc mở rộng khả năng tiếp cận hỗ trợ tinh thần, đặc biệt tại các nơi thiếu chuyên gia hoặc chi phí trị liệu quá cao. Tuy nhiên, để công nghệ trở thành công cụ an toàn, cần sự phối hợp giữa nhà phát triển, chuyên gia tâm lý và nhà quản lý chính sách. Sức hấp dẫn của AI về tốc độ nhanh, sự tiện lợi, sẵn sàng 24/7 không thể đánh đổi bằng việc bỏ qua chuẩn mực đạo đức, nhất là trong lĩnh vực nhạy cảm như sức khỏe tinh thần.

Quỳnh Lâm

Theo Tin dịch

Nguồn DNSG: https://doanhnhansaigon.vn/ai-tri-lieu-cuu-canh-cho-suc-khoe-tam-than-hay-con-dao-dai-luoi-329224.html