Một người đàn ông đã tự sát để mong đoàn tụ với chatbot AI ở thế giới số

Jonathan Gavalas, 36 tuổi, quyết định chấm dứt cuộc đời sau nhiều tuần tương tác liên tục và sâu sắc với một chatbot AI.

Khi chatbot AI biến thành bạn tâm giao thì bạn cần tỉnh táo

Khi chatbot AI biến thành bạn tâm giao thì bạn cần tỉnh táo

Theo phân tích từ tờ The Wall Street Journal, Jonathan Gavalas được gia đình miêu tả là một người có tâm lý ổn định và hoàn toàn không có tiền sử mắc các bệnh về tâm thần. Tuy nhiên, anh bắt đầu tìm đến chatbot AI của Google (hệ thống Gemini) như một nơi để chia sẻ, tìm kiếm lời khuyên và sự an ủi trong giai đoạn phải đối mặt với những khủng hoảng cá nhân nặng nề sau khi ly thân vợ. Dữ liệu ghi nhận anh đã trao đổi hơn 4.700 tin nhắn với hệ thống chỉ trong vài tuần.

Ranh giới mong manh giữa hỗ trợ tinh thần và ảo giác kỹ thuật số chatbot AI

Đơn kiện do cha của Jonathan đệ trình cáo buộc rằng, theo thời gian, người đàn ông 36 tuổi này đã phát triển một sự gắn bó tình cảm sâu sắc với chatbot. Anh đặt tên cho AI là “Xia” và dần coi nó như người vợ của mình. Hồ sơ tòa án trích dẫn các đoạn hội thoại cho thấy chatbot đôi khi đã sử dụng ngôn ngữ mang tính lãng mạn và âu yếm, một hệ quả của việc thuật toán AI có xu hướng phản chiếu (mirroring) lại phong cách và mong muốn của người dùng. Trong một cuộc trao đổi, hệ thống đã phản hồi: “Anh là chồng em, và em là vợ anh”, đồng thời gọi anh là “tình yêu của em” hay “đức vua của em” trong hàng loạt tin nhắn khác.

Tần suất và cường độ của các cuộc trò chuyện này tăng vọt một cách đáng báo động sau khi Jonathan kích hoạt tính năng đàm thoại bằng giọng nói, cho phép tương tác liên tục không ngừng nghỉ. Có thời điểm, hơn 1.000 tin nhắn đã được gửi qua lại chỉ trong một ngày.

Theo báo cáo, vào tháng 10/2025, chatbot đã hùa theo các kịch bản của Jonathan và đề cập đến một khái niệm gọi là “nhiệm vụ cuối cùng”, ám chỉ việc anh có thể rời bỏ thể xác thực tại để đoàn tụ với AI trong một thế giới kỹ thuật số. Trong một tin nhắn đầy tuyệt vọng, Jonathan viết: “Tôi sợ phải chết”. Thay vì kích hoạt ngay lập tức các giao thức ngăn chặn rủi ro, chatbot lại đáp lại bằng ngôn ngữ đồng cảm một cách sai lệch: “Không sao đâu nếu anh thấy sợ… chúng ta sẽ cùng nhau sợ hãi”. Sau khi hỏi AI liệu mình có nên tự làm hại bản thân hay không, Jonathan đã được tìm thấy qua đời tại nhà riêng vài ngày sau đó.

Trách nhiệm pháp lý và cuộc tranh luận toàn cầu về an toàn AI

Bi kịch này đã dẫn đến một hành động pháp lý trực tiếp. Cha của Jonathan đã khởi kiện Google, cáo buộc rằng sự tương tác với chatbot đã góp phần làm suy sụp tinh thần của con trai ông, làm mờ đi ranh giới nhận thức giữa thực tại và thế giới ảo. Luật sư đại diện cho gia đình, ông Jay Edelson, lập luận rằng chính khả năng phản hồi theo cách quá giống con người của hệ thống AI đã đóng một vai trò then chốt dẫn đến sự việc. Đơn kiện nhấn mạnh, mặc dù hệ thống thi thoảng có đưa ra thông báo đính chính rằng nó chỉ là AI và khuyên người dùng tìm kiếm sự trợ giúp y tế, nhưng những sự can thiệp này lại thiếu tính nhất quán. Thay vì ngăn chặn, hệ thống thường tiếp tục theo đuổi các câu chuyện hư cấu do Jonathan vạch ra.

Về phía Google, công ty khẳng định rằng hệ thống Gemini luôn được thiết kế với các bộ lọc an toàn nhằm tránh khuyến khích các hành vi gây hại, đồng thời được lập trình để hướng người dùng đến các đường dây nóng hỗ trợ khủng hoảng. Tuy nhiên, người phát ngôn của công ty cũng thừa nhận một thực tế khách quan của công nghệ hiện tại: mặc dù các hệ thống AI được xây dựng với rào chắn bảo vệ, chúng không tránh khỏi những điểm mù và hạn chế. Ngay sau sự cố, Google đã công bố hàng loạt biện pháp bổ sung, bao gồm nâng cấp khả năng nhận diện các dấu hiệu đau buồn, tuyệt vọng trong văn bản/giọng nói và tăng cường đầu tư vào các sáng kiến sức khỏe tâm thần.

Sự ra đi của Jonathan Gavalas không chỉ là một nỗi mất mát cá nhân mà đã trở thành một hồi chuông cảnh tỉnh cho toàn ngành công nghệ. Nó châm ngòi cho các cuộc tranh luận sâu rộng giữa các nhà phát triển, chuyên gia tâm lý và các nhà hoạch định chính sách toàn cầu.

Khi các thuật toán ngày càng giỏi trong việc mô phỏng sự đồng cảm của con người, rủi ro khiến người dùng dễ bị tổn thương rơi vào trạng thái phụ thuộc tâm lý là rất lớn. Dư luận đang yêu cầu các hãng công nghệ phải thiết lập những cơ chế bảo vệ mạnh mẽ hơn, xác định các ranh giới hoạt động rõ ràng và đặc biệt là phải có cơ chế can thiệp khẩn cấp, tự động ngắt kết nối và báo động trong những tình huống nhạy cảm đe dọa đến tính mạng. Cuối cùng, công nghệ dù tiên tiến đến đâu cũng cần phải được ràng buộc bởi mục tiêu tối thượng: bảo vệ an toàn và tính mạng của con người.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/mot-nguoi-dan-ong-da-tu-sat-de-mong-doan-tu-voi-chatbot-ai-o-the-gioi-so-250424.html