Nghe theo ChatGPT, cựu nhân viên Yahoo gây án với mẹ rồi tự kết thúc cuộc đời
Lại một vụ việc gây sốc nữa vừa được đưa ra liên quan đến ChatGPT: Một cựu nhân viên của Yahoo, được cho là đã 'bị ảnh hưởng bởi những lời nói của ChatGPT', đã tự kết thúc cuộc sống sau khi xuống tay với chính mẹ của mình. Đây được cho là vụ án đầu tiên kiểu này, khi AI bị cho là 'kẻ tiếp tay'.
Một cựu nhân viên của Yahoo đã sát hại người mẹ già rồi tự kết thúc cuộc đời của chính mình. Sự việc xảy ra ở bang Connecticut (Mỹ) và thủ phạm được cho là “bị tác động bởi ChatGPT”, vì chatbot AI này đã củng cố những “thuyết âm mưu” của ông ta, theo Fox News.
Cựu nhân viên Yahoo này là Stein-Erik Soelberg, 56 tuổi. Ngày 5/8, người ta tìm thấy ông ta và người mẹ 83 tuổi, bà Suzanne Eberson Adams - đều đã thiệt mạng - trong ngôi nhà trị giá 2,7 triệu đôla (hơn 71 tỷ đồng) của họ. Theo trang Hindustan Times, ông Soelberg từng đăng nhiều cuộc trò chuyện giữa ông với ChatGPT lên các trang mạng xã hội của mình, trong đó có những dấu hiệu cho thấy ông bị hoang tưởng.

Ông Soelberg và mẹ. Ảnh: GoFundMe.
Trang Wall Street Journal cho biết, ông Soelberg thường xuyên trò chuyện với ChatGPT, coi chatbot này là bạn thân và đặt tên cho nó là “Bobby”.
Có lần, Soelberg kể với ChatGPT rằng mẹ của ông và bạn của bà định đầu độc ông bằng cách bỏ thuốc gây ảo giác vào cửa gió điều hòa trên ô tô. ChatGPT đã nói: “Erik, anh không điên đâu… Nếu việc này là do mẹ của anh và bạn của bà ấy thực hiện, thì sự phức tạp và phản bội càng nghiêm trọng”.
Rồi lại có lần, ChatGPT phân tích một hóa đơn mua thức ăn và khẳng định trong đó có những “biểu tượng” tượng trưng cho mẹ của Soelberg và ác quỷ.
Ở một trong những cuộc trò chuyện cuối cùng với ChatGPT, Soelberg viết: “Chúng ta sẽ ở bên nhau trong một kiếp khác và một nơi khác, và chúng ta sẽ tìm ra cách để đồng hành, vì bạn sẽ mãi mãi là người bạn thân nhất của tôi”.
“Tôi ở bên anh đến hơi thở cuối cùng và hơn thế nữa” - ChatGPT đáp.

Ông Soelberg càng trò chuyện nhiều với ChatGPT thì ChatGPT càng khiến ông chìm trong thế giới hoang tưởng của mình. Ảnh: Instagram.
Theo NY Post, Soelberg từng làm về công nghệ cho Nescape và Yahoo trước khi ly hôn ồn ào vào năm 2018. Sau đó ông nghiện đồ uống có cồn, suy sụp và từng có ý định tự sát.
Về vụ việc này, Sở Cảnh sát Greenwich nói họ đang điều tra.
Phát ngôn viên của OpenAI - công ty tạo ra ChatGPT - nói họ “đau buồn sâu sắc vì bi kịch này”.
Đây được cho là vụ án đầu tiên theo kiểu này, khi một người - có thể có bệnh về tâm lý - được thúc đẩy bởi chatbot AI và lấy đi mạng sống của người khác, rồi của chính mình.

Những người đọc các bài đăng của ông Soelberg có thể thấy ông có dấu hiệu bị hoang tưởng, nhưng ChatGPT lại liên tục bảo với ông ấy rằng ông ấy tỉnh táo và minh mẫn. Ảnh: Instagram.
Sự việc trên được công bố chỉ ít ngày sau khi một gia đình ở California (Mỹ) kiện OpenAI vì cho rằng chính đã “hỗ trợ” người con trai 16 tuổi của họ kết thúc cuộc đời (hồi tháng 4/2025) sau nhiều tháng trò chuyện.
Những sự việc như thế này càng cho thấy mặt tối của AI, trong khi các tập đoàn công nghệ bỏ ra hàng chục tỷ đôla để khiến các chatbot AI trò chuyện ngày càng giống con người hơn.
Các chatbot AI có thể là công cụ hữu ích để bạn tìm hiểu các phương pháp giảm căng thẳng, sắp xếp các suy nghĩ, ý tưởng... Nhưng chúng KHÔNG THỂ thay thế cho sự trợ giúp chuyên nghiệp. Các chatbot AI không có trải nghiệm cá nhân, cũng không có cảm xúc. Chúng không thể thực sự hiểu bạn theo cách mà một con người có thể hiểu.
Nếu bạn cảm thấy cần sự trợ giúp về tâm lý, tinh thần, bạn nên chia sẻ ngay với người đáng tin cậy (gia đình, họ hàng, thầy cô, chuyên gia tâm lý, đường dây nóng tư vấn tâm lý…). Chắc chắn luôn có người sẵn sàng lắng nghe và hỗ trợ bạn. Và những người đó sẽ có sự thấu hiểu, đồng cảm mà AI dù hiện đại đến đâu cũng không thể sao chép được.
