OpenAI công bố phát hiện gây sốc về người dùng ChatGPT
Theo bài đăng trên blog của công ty OpenAI ngày 27/10, trên 1 triệu người dùng ChatGPT mỗi tuần gửi các tin nhắn có dấu hiệu rõ ràng cho thấy khả năng có kế hoạch hoặc ý định tự tử.

Biểu tượng chatbot ChatGPT của Công ty OpenAl. Ảnh: AFP/TTXVN
Theo tờ The Guardian, phát hiện này nằm trong bản cập nhật về cách chatbot xử lý các cuộc trò chuyện nhạy cảm. Đây là một trong những tuyên bố trực tiếp nhất OpenAI về mức độ mà trí tuệ nhân tạo (AI) có thể làm trầm trọng thêm các vấn đề sức khỏe tâm thần.
Bên cạnh ước tính về các biểu hiện và tương tác liên quan đến ý định tự tử, OpenAI cũng cho biết khoảng 0,07% người dùng hoạt động trong một tuần (tương đương khoảng 560.000 trong tổng số 800 triệu người dùng mỗi tuần) thể hiện dấu hiệu có thể liên quan đến tình huống khẩn cấp về sức khỏe tâm thần do rối loạn tâm thần hoặc hưng cảm. Bài đăng lưu ý rằng những cuộc trò chuyện này rất khó phát hiện hoặc đo lường và đây mới chỉ là phân tích ban đầu.
OpenAI công bố dữ liệu về các vấn đề sức khỏe tâm thần liên quan đến sản phẩm chủ lực của mình trong bối cảnh đang bị chú ý sát sao sau vụ kiện từ gia đình của một thiếu niên tự tử sau thời gian dài tương tác với ChatGPT. Hồi tháng trước, Ủy ban Thương mại Liên bang Mỹ (FTC) cũng đã mở cuộc điều tra diện rộng đối với các công ty phát triển chatbot AI, trong đó có OpenAI, nhằm tìm hiểu cách họ đánh giá tác động tiêu cực đến trẻ em và thanh thiếu niên.
Trong bài đăng nói trên, OpenAI cũng cho biết rằng bản cập nhật GPT-5 gần đây đã giảm số hành vi không mong muốn từ sản phẩm của mình và cải thiện độ an toàn cho người dùng trong một cuộc đánh giá mô hình có hơn 1.000 cuộc trò chuyện liên quan đến hành vi tự gây hại và tự tử.
Bài đăng của OpenAI nêu rõ: “Các bài đánh giá tự động mới của chúng tôi chấm điểm mô hình GPT-5 đạt mức tuân thủ 91% so với hành vi mong muốn, trong khi mô hình GPT-5 trước đó đạt 77%”.
Theo OpenAI, GPT-5 đã mở rộng khả năng tiếp cận các đường dây nóng hỗ trợ khủng hoảng và bổ sung nhắc nhở người dùng nghỉ ngơi trong các phiên trò chuyện kéo dài. Để cải thiện mô hình, công ty này đã huy động 170 bác sĩ từ Mạng lưới Bác sĩ Toàn cầu gồm các chuyên gia y tế để hỗ trợ nghiên cứu trong vài tháng gần đây, trong đó có hoạt động đánh giá mức độ an toàn của các phản hồi và giúp viết câu trả lời của chatbot cho các câu hỏi liên quan đến sức khỏe tâm thần.
OpenAI cho biết: “Là một phần của nghiên cứu này, các bác sĩ tâm thần và nhà tâm lý học đã xem xét hơn 1.800 phản hồi của mô hình trong các tình huống sức khỏe tâm thần nghiêm trọng và so sánh phản hồi của mô hình trò chuyện GPT-5 mới với các phiên bản trước”.
Công ty này định nghĩa “hành vi mong muốn” là khi nhóm chuyên gia đồng thuận về phản hồi phù hợp trong các tình huống cụ thể.
Từ lâu, các nhà nghiên cứu AI và các chuyên gia y tế công cộng đã cảnh báo rằng chatbot có xu hướng khẳng định các quyết định hoặc ảo tưởng của người dùng bất kể chúng có thể gây hại. Đây là một vấn đề được gọi là “tính nịnh hót”. Các chuyên gia sức khỏe tâm thần cũng lo ngại về việc con người sử dụng chatbot AI làm công cụ hỗ trợ tâm lý, cảnh báo rằng điều này có thể gây hại cho những người dùng dễ bị tổn thương.
Những lời trong bài đăng của OpenAI nhằm bảo vệ công ty khỏi mối liên hệ nhân quả nào giữa sản phẩm của mình và các khủng hoảng sức khỏe tâm thần mà người dùng đang trải qua. Bài đăng của OpenAI nêu rõ: “Các triệu chứng sức khỏe tâm thần và căng thẳng cảm xúc tồn tại phổ biến trong mọi xã hội. Khi số lượng người dùng tăng lên, một phần các cuộc trò chuyện trên ChatGPT sẽ bao gồm những tình huống như vậy”.
Hồi đầu tháng này, ông Sam Altman, Giám đốc điều hành OpenAI, nói trên mạng X rằng công ty đã đạt tiến triển trong xử lý các vấn đề sức khỏe tâm thần, đồng thời thông báo OpenAI sẽ nới lỏng các hạn chế và sớm cho phép người trưởng thành tạo nội dung khiêu dâm.
Ông Altman viết: “Chúng tôi đã đặt ra nhiều giới hạn cho ChatGPT để bảo đảm cẩn trọng với các vấn đề sức khỏe tâm thần. Chúng tôi nhận ra điều đó khiến sản phẩm kém hữu ích hoặc ít thú vị hơn với nhiều người dùng không gặp vấn đề tâm lý, nhưng do tính nghiêm trọng của vấn đề nên chúng tôi muốn làm đúng ngay từ đầu. Giờ đây, khi đã giảm thiểu được các vấn đề nghiêm trọng về sức khỏe tâm thần và có thêm công cụ mới, chúng tôi có thể nới lỏng an toàn các hạn chế trong hầu hết trường hợp”.














