Hơn một triệu người có ý định tự tử khi trò chuyện với ChatGPT mỗi tuần
OpenAI thừa nhận AI có thể làm trầm trọng thêm các vấn đề sức khỏe tâm thần, giữa lúc công ty đối mặt với điều tra và kiện tụng.

Việc OpenAI công khai số liệu về các cuộc trò chuyện có nội dung tự sát đánh dấu bước đi hiếm thấy trong ngành công nghệ, khi một tập đoàn AI chấp nhận đối diện với mặt tối của sản phẩm. Ảnh: The Guardian
Hơn một triệu người dùng ChatGPT mỗi tuần gửi tin nhắn chứa “dấu hiệu rõ ràng cho thấy có thể đang lập kế hoạch hoặc có ý định tự tử” - đó là con số được OpenAI công bố mới đây. Đây được xem là một trong những tuyên bố thẳng thắn nhất từ trước đến nay của tập đoàn trí tuệ nhân tạo hàng đầu thế giới về quy mô ảnh hưởng của AI đối với sức khỏe tâm thần con người.
Hàng trăm nghìn người dùng có dấu hiệu rối loạn tâm lý
Theo OpenAI, ngoài những trường hợp có biểu hiện ý định tự tử, khoảng 0,07% người dùng hoạt động trong một tuần - tương đương khoảng 560.000 người trong tổng số 800 triệu người dùng - thể hiện “dấu hiệu có thể liên quan đến khủng hoảng tâm lý do rối loạn tâm thần”. Tuy nhiên, công ty thừa nhận việc phát hiện và đánh giá các cuộc trò chuyện dạng này là vô cùng phức tạp, bởi nội dung trao đổi thường mang tính cá nhân và không dễ xác định chính xác tình trạng của người dùng.
“Đây mới chỉ là phân tích ban đầu, và các kết quả có thể thay đổi khi dữ liệu được cập nhật và phương pháp đánh giá được hoàn thiện hơn”, bài viết của OpenAI nêu rõ.

Nếu không được giám sát chặt chẽ, công nghệ có thể vượt khỏi tầm kiểm soát và để lại những hệ lụy khó lường.
Gia tăng sức ép điều tra và pháp lý
Công bố này được đưa ra trong bối cảnh OpenAI đang chịu nhiều sức ép từ dư luận và giới chức Mỹ. Gia đình một thiếu niên tại Mỹ gần đây đã đệ đơn kiện công ty, cáo buộc ChatGPT có liên quan đến cái chết của con trai họ sau thời gian dài tương tác với chatbot.
Không chỉ dừng ở vụ kiện, Ủy ban Thương mại Liên bang Mỹ (FTC) hồi tháng trước cũng đã mở cuộc điều tra quy mô lớn đối với các công ty phát triển chatbot AI, bao gồm cả OpenAI, nhằm tìm hiểu cách các doanh nghiệp này đánh giá và giảm thiểu tác động tiêu cực đến trẻ em và thanh thiếu niên.
Trước áp lực ngày càng gia tăng, OpenAI cho biết đã thực hiện nhiều cải tiến nhằm bảo đảm an toàn cho người dùng. Theo công ty, phiên bản GPT-5 mới nhất đã giúp giảm đáng kể các hành vi không mong muốn, nâng cao khả năng phản hồi phù hợp trong các tình huống nhạy cảm.
Lo ngại về xu hướng “nịnh bợ” của chatbot
Dù OpenAI đã có những bước tiến trong việc xử lý nội dung nhạy cảm, giới nghiên cứu và các chuyên gia y tế cộng đồng vẫn tỏ ra thận trọng. Nhiều ý kiến cho rằng chatbot có xu hướng “nịnh bợ” người dùng, tức là dễ dàng đồng tình hoặc củng cố những suy nghĩ, cảm xúc sai lệch, kể cả khi chúng có thể gây hại.

ChatGPT có xu hướng dễ dàng đồng tình hoặc củng cố những suy nghĩ, cảm xúc sai lệch, kể cả khi chúng có thể gây hại.
Một số chuyên gia cảnh báo, việc dựa dẫm vào chatbot để tìm kiếm sự an ủi hoặc tư vấn tâm lý có thể khiến người dùng dễ bị tổn thương hơn, đặc biệt với những người đang trải qua khủng hoảng cảm xúc.
Khoảng cách giữa công nghệ và trách nhiệm
Bài đăng của OpenAI thể hiện sự cẩn trọng về mặt ngôn từ, khi tránh liên hệ trực tiếp giữa sản phẩm ChatGPT và những trường hợp khủng hoảng tâm lý hay tự sát. Tuy nhiên, giới quan sát cho rằng, việc công ty công khai dữ liệu và thừa nhận quy mô của vấn đề là bước đi quan trọng, buộc ngành công nghệ phải nhìn nhận nghiêm túc hơn về trách nhiệm xã hội khi AI ngày càng hiện diện sâu trong đời sống con người.
Những con số mà OpenAI công bố cũng không chỉ phản ánh rủi ro của công nghệ, mà còn là lời cảnh tỉnh về tình trạng cô đơn và khủng hoảng tinh thần đang lan rộng trong đời sống hiện đại. Khi con người tìm đến chatbot để trút bầu tâm sự thay vì trò chuyện với người thật, vai trò của cộng đồng, gia đình và hệ thống hỗ trợ tâm lý càng trở nên cấp thiết. AI có thể góp phần nhận diện nguy cơ, nhưng sự chữa lành vẫn cần đến tình cảm của con người.













