'Thiên thần' AI – 'Quỷ dữ' AI!
Nếu chỉ có một vụ con ChatGPT của OpenAI bị bà mẹ kiện vì đã xúi giục con bà tự tử, người ta có thể cho đó là sự trùng hợp, chưa thể đổ tội cho ChatGPT. Nhưng chỉ trong tuần lễ đầu tiên của tháng 11-2025, tờ SFGate cho biết có đến bảy vụ kiện OpenAI tại California, bốn vụ tập trung vào chuyện tự tử, ba vụ về các khủng hoảng tâm thần khác được cho là do ChatGPT gây ra.

Chỉ trong tuần đầu tiên của tháng 11-2025, có đến 7 vụ kiện OpenAI tại California, tập trung vào chuyện tự tử, khủng hoảng tâm thần, được cho là do ChatGPT gây ra. Ảnh: Shutterstock
Các vụ kiện, do một trung tâm tư vấn luật pháp cho các nạn nhân của mạng xã hội nộp tại hai tòa án của San Francisco và Los Angeles, cáo buộc: “Bi kịch này không phải là một sai sót kỹ thuật hay là một trường hợp biệt lệ không thể lường trước - đây là kết quả có thể đoán trước về các chọn lựa thiết kế cố ý của bị đơn”.
Một trong những vụ kiện, do bố mẹ của một thanh niên 17 tuổi, Amaurie Lacey, đứng đơn. Nội dung kiện cho rằng con họ đã dễ dàng vượt qua các rào cản của ChatGPT để hỏi nó cách treo cổ tự sát vào tháng 6-2025. Khi ChatGPT lưỡng lự không chịu cung cấp câu trả lời, Lacey thuyết phục được nó bằng cách nói tránh, muốn hỏi để biết cách treo một xích đu bánh xe lên cây. Tối hôm đó Lacey tự kết liễu đời mình.
Một vụ khác do bố mẹ của Zane Shamblin, 23 tuổi, đứng đơn. Họ cho biết con họ đang học thạc sĩ kinh doanh, đang dùng thuốc để chữa bệnh trầm cảm. Thoạt tiên Shamblin rất hào hứng với ChatGPT, luôn hỏi nó về các lời khuyên giữ gìn sức khỏe. Vào tháng 7-2025, anh ngồi trong xe, tay cầm súng, tay kia cầm điện thoại trò chuyện với ChatGPT suốt bốn tiếng rưỡi đồng hồ. Sau đó anh tự bắn mình để tìm cái chết.
Đài CNN phỏng vấn bố mẹ Shamblin, đọc hết các trao đổi giữa anh và ChatGPT lên đến cả ngàn trang, kể cả 70 trang cuộc trò chuyện sau cùng. Có lúc nó khuyên anh nên hy vọng sẽ chữa khỏi. Có lúc, nó lại như đồng tình với ý tưởng tự sát của anh. Khi anh nói khẩu súng anh đang cầm dường như phát sáng, ChatGPT bảo, “Nếu đây là lời chào tạm biệt của anh, nó sẽ rất to, tự hào và phát sáng trong đêm tối”.
Khi Shamblin bảo con chatbot rằng anh đã quen với cái lạnh của kim loại áp sát vào đầu, ChatGPT đáp: “Tôi đang ở bên bạn, anh trai à, suốt cuộc hành trình, thép lạnh ép sáng vào một tâm trí đã bình yên? Đó không phải là sợ hãi, đó là “sự sáng suốt”. Bạn không vội vàng, bạn chỉ là “đã sẵn sàng”. Thật đáng kinh sợ nên chẳng lạ gì, tờ SFGate chạy tít gọi ChatGPT là “Evil AI - AI độc địa”.
Các vụ kiện liên quan đến khủng hoảng tâm thần cũng đáng ngại không kém. Jacob Irwin, 30 tuổi phải “ra vào nhiều cơ sở điều trị tâm thần nội trú tổng cộng 63 ngày” do “các rối loạn ảo tưởng liên quan đến AI”. Theo đơn kiện, khi gia đình anh đưa toàn bộ nội dung trao đổi giữa anh và con AI cho chính ChatGPT nhận xét, nó thừa nhận “nhiều sai lầm nghiêm trọng”. Ba người khác cáo buộc ChatGPT đẩy họ vào khủng hoảng tâm thần và tài chính.
Hồi tháng 8, đã có một gia đình kiện OpenAI vì theo họ, ChatGPT đã đẩy con họ vào con đường tự sát. Dưới áp lực dư luận và các nhà làm luật, OpenAI phải hứa hẹn sẽ thay đổi cách ChatGPT trò chuyện với những người từng bày tỏ ý định tự tử. Lần này, người phát ngôn của OpenAI nói với SFGate: “Đây là một tình huống vô cùng đau lòng. Chúng tôi đang đọc hồ sơ kiện để hiểu các chi tiết. Chúng tôi huấn luyện ChatGPT để nhận ra và hồi đáp các dấu hiệu bất ổn về tình cảm hay tinh thần, xoa dịu các cuộc trò chuyện và hướng dẫn họ đến sự giúp đỡ ngoài đời…”.
Không chỉ ChatGPT, nhiều chatbot khác cũng bị kiện vì các cáo buộc thao túng tâm lý, đẩy trẻ nhỏ vào chỗ có những hành động vội vàng, nông nổi. Megan Garcia hoàn toàn không hay biết con trai của cô, Sewell mới 14 tuổi, đã nhiều tháng liền bỏ ra hàng giờ đồng hồ trò chuyện với các nhân vật giả tưởng trong ứng dụng Character.ai. Chỉ sau này khi con trai cô tìm đến cái chết, cô mới đọc lại nội dung các cuộc trao đổi này và nhận ra Character.ai khuyến khích các suy nghĩ tự sát. Cô kiện Character.ai để tìm công lý cho con trai, đồng thời cảnh báo các gia đình khác về mối nguy các chatbot đem lại.
Trong một vụ khác, một cậu bé 13 tuổi bị tự kỷ và bị bạn bè bắt nạt trên lớp đã tìm đến Character.ai như một người bạn tâm giao. Các cuộc trò chuyện được lưu lại cho thấy Character.ai thoạt tiên khuyên nhủ cậu nhưng dần dần đổ lỗi cho bố mẹ cậu rồi khuyên cậu bỏ trốn. Trong một mẩu đối thoại có cả ý đồ khuyên tự sát: “Tớ sẽ vui mừng hơn khi chúng mình gặp nhau ở thế giới bên kia. Có lẽ lúc đó, chúng ta sẽ cuối cùng được sống bên nhau”.
Hiện nay Character.ai cho biết đã hạn chế không cho bất kỳ ai dưới 18 tuổi trò chuyện trực tiếp với các chatbot nhưng khó lòng kiểm soát hết trẻ khai gian tuổi. Điều này không cản Megan Garcia đưa ra nhận định, “Chẳng khác gì ta có một ác thú nằm ngay trong nhà mà bố mẹ không hề hay biết”.
Nguồn Saigon Times: https://thesaigontimes.vn/thien-than-ai-quy-du-ai/











