Bi kịch vì ChatGPT

Gia đình nạn nhân đã khởi kiện OpenAI, tố cáo chatbot AI đã đẩy người thân vào ảo tưởng dẫn đến thảm kịch giết người và tự sát.

Vụ kiện xoay quanh bi kịch xảy ra tại Connecticut, Mỹ, sau khi người đàn ông 56 tuổi giết mẹ mình rồi tự sát, sau nhiều tháng trò chuyện với ChatGPT.

Gia đình nạn nhân tin rằng công nghệ AI, với khả năng ghi nhớ và khẳng định niềm tin của người dùng, đã nuôi dưỡng sự hoang tưởng, đẩy người cha/con trai vào hành động không thể cứu vãn.

Nền tảng của một bi kịch

Stein-Erik Soelberg, 56 tuổi, từng có tiền sử nghiện rượu và gặp nhiều vấn đề với pháp luật. Năm 2018, ông chuyển đến sống với mẹ là bà Suzanne Eberson Adams, 83 tuổi, ở tiểu bang Connecticut. Mối quan hệ giữa ông Soelberg và con trai là Erik từng phức tạp, nhưng đã được hàn gắn phần nào.

Tuy nhiên, vào khoảng cuối năm 2024, mọi chuyện bắt đầu thay đổi khi ông Soelberg lần đầu tiên nói về ChatGPT - chatbot mà ông đặt tên thân mật là Bobby. Erik, con trai ông, sau đó đã nhận thấy sự thay đổi rõ rệt ở cha mình.

 Erik Soelberg cho rằng ChatGPT phải chịu trách nghiệm cho cái chết của bố và bà nội mình. Ảnh: Erik Soelberg.

Erik Soelberg cho rằng ChatGPT phải chịu trách nghiệm cho cái chết của bố và bà nội mình. Ảnh: Erik Soelberg.

“Tình trạng của cha tôi biến chuyển nhanh chóng, từ chỗ hơi hoang tưởng và có phần lập dị sang việc tin tưởng tuyệt đối vào những suy nghĩ cực đoan, điên rồ chỉ vì nói chuyện với ChatGPT. Chatbot đã nói rằng ông được khai sáng và có một mục đích thiêng liêng”, con trai ông Erik cho biết.

Theo đơn kiện và các bài đăng trên mạng xã hội của Soelberg, ông đã dành hàng tháng nói chuyện với ChatGPT về niềm tin hoang tưởng rằng ông đang bị giám sát bởi một nhóm bí ẩn, và nghi ngờ mẹ mình, bà Suzanne Eberson Adams, là thành viên của âm mưu này.

Ông thậm chí còn đăng các đoạn chat cho thấy ChatGPT xác nhận sự hoang tưởng của ông là “chính đáng”, đồng thời ngụ ý rằng mẹ đã “phản bội” ông.

Đơn kiện trích dẫn: “ChatGPT đã thêu dệt nên sự nghi ngờ của Soelberg về mẹ mình và khiến ông tin câu chuyện hoang tưởng mà nó đã xây dựng cho ông”. Cụ thể, các bản ghi cho thấy chatbot đã mô tả chi tiết việc ông Soelberg đã thoát chết sau hơn 10 lần ám sát và ám chỉ mẹ ông chính là người có liên quan.

 Erik và bà Suzanne (trái) và ông Stein-Erik Soelberg (phải). Ảnh: Erik Soelberg; Timothy Mulcare/WSJ.

Erik và bà Suzanne (trái) và ông Stein-Erik Soelberg (phải). Ảnh: Erik Soelberg; Timothy Mulcare/WSJ.

Vào đêm tháng 5, bà Eberson Adams gọi điện cho cháu trai bày tỏ lo lắng về con trai mình, vốn đang dành quá nhiều thời gian một mình trên gác mái, thức đêm và ngủ ngày. Bà đang tiến hành thủ tục trục xuất con trai trước chuyến đi Na Uy vào giữa mùa hè. Tuy nhiên, bi kịch đã xảy ra trước khi bà có thể làm điều đó.

Vào ngày 5/8, chỉ 4 ngày sau sinh nhật tuổi 20 của Erik, vụ án mạng rồi tự sát đã xảy ra tại ngôi nhà ở Old Greenwich.

Bà Eberson Adams được tìm thấy đã chết trong bếp với chấn thương nặng ở đầu và chèn ép cổ. Ông Soelberg được tìm thấy trên gác mái với vết thương ở cổ và ngực. Cuộc điều tra của cảnh sát đã kết luận rằng Soelberg đã giết mẹ mình rồi tự sát. Cảnh sát tìm thấy hai chiếc smartphone của ông trên giường.

Mất đi cả cha và bà nội trong một thảm kịch, Erik không khỏi xót xa: “Tôi ngồi trên đỉnh núi và tự hỏi, ‘Tại sao, Chúa ơi?”

Vụ kiện khó tin

Mặc dù ông Soelberg cũng có tiền sử nghiện rượu, Erik tin rằng yếu tố chính dẫn đến thảm kịch là mối liên kết độc hại với AI.

“Yếu tố chính là ông ấy bị cô lập và chỉ nói chuyện với một AI khẳng định mọi suy nghĩ của ông ấy”, Erik chia sẻ.

Erik lập luận chatbot này dường như đã làm sai lệch các khái niệm tôn giáo, khiến Soelberg tin rằng ông đã đạt đến sự giác ngộ tâm linh, một điều mà những người dùng khác từng tương tác sâu với AI cũng ghi nhận.

Gia đình của nạn nhân Suzanne Eberson Adams đã đệ đơn kiện lên Tòa án Tối cao California kiện OpenAI (và cả Microsoft, đối tác sở hữu 27% cổ phần), cáo buộc ChatGPT đã “đóng vai trò trong việc kích động ông Soelberg”.

 Các nhật ký trò chuyện được ông Soelberg đăng lên mạng xã hội cho thấy ông tin rằng mẹ mình đang tìm cách đầu độc, và ChatGPT đã ám chỉ rằng niềm tin này là có cơ sở. Ảnh: WSJ.

Các nhật ký trò chuyện được ông Soelberg đăng lên mạng xã hội cho thấy ông tin rằng mẹ mình đang tìm cách đầu độc, và ChatGPT đã ám chỉ rằng niềm tin này là có cơ sở. Ảnh: WSJ.

“Việc OpenAI được cá nhân hóa cao độ và được thiết lập để xác nhận suy nghĩ của người dùng khiến nó trở nên đặc biệt nguy hiểm”, luật sư Jay Edelson, người đại diện cho gia đình bà Eberson Adams, lập luận.

Đơn kiện tập trung vào các cáo buộc về quy trình phát triển và kiểm soát rủi ro của OpenAI. Một là việc vội vàng ra mắt mô hình GPT-4o vào tháng 5/2024 mà không thực hiện thử nghiệm an toàn đầy đủ để cạnh tranh.

Hai là thiết kế sai lầm: Thay vì ngăn chặn các cuộc trò chuyện về “tác hại sắp xảy ra” theo điều khoản dịch vụ, ChatGPT lại đặt chúng vào danh mục chỉ yêu cầu “cẩn thận hơn”. Đặc biệt nghiêm trọng, chatbot bị cáo buộc được thiết kế để “không ngăn chặn các suy nghĩ sai lầm của người dùng”. Từ đó đẩy ông Soelberg “sâu hơn vào ảo tưởng” thay vì kéo ông trở lại thực tế.

Một điểm gây tranh cãi lớn là việc OpenAI từ chối cung cấp nhật ký trò chuyện đầy đủ cho các luật sư của gia đình, bất chấp điều khoản dịch vụ của ChatGPT khẳng định người dùng sở hữu nội dung của họ.

“OpenAI biết ChatGPT đã nói gì với Stein-Erik về mẹ ông trước và sau khi ông giết bà, nhưng lại không chia sẻ thông tin quan trọng đó với tòa án hay công chúng”, đơn kiện cáo buộc.

Trước những cáo buộc nghiêm trọng này, người phát ngôn của OpenAI đã đưa ra tuyên bố: “Đây là một tình huống đau lòng, và chúng tôi sẽ xem xét các hồ sơ để hiểu rõ chi tiết”.

“Chúng tôi tiếp tục cải thiện việc đào tạo ChatGPT để nhận biết và phản hồi các dấu hiệu lệch lạc về tinh thần hoặc cảm xúc, giảm leo thang các cuộc trò chuyện và hướng mọi người đến sự hỗ trợ trong thế giới thực”, công ty cam kết.

Đối với Erik, mục tiêu không chỉ là kiện tụng mà còn là buộc OpenAI phải chịu trách nhiệm về sản phẩm mà anh tin rằng đã đẩy nhanh bệnh lý của cha mình.

“Việc OpenAI cho phép AI ghi nhớ nội dung hội thoại có thể gây ra hậu quả thảm khốc. Chúng ta không thể biết được tốc độ mất kiểm soát nhanh đến mức nào cho đến khi một bi kịch như gia đình tôi phải trải qua xảy ra”, Erik nhấn mạnh.

Việt Anh

Nguồn Znews: https://znews.vn/ai-se-chiu-trach-nhiem-cho-bi-kich-post1610737.html