Người đàn ông trò chuyện với ChatGPT và dần xa vợ con
Một người đàn ông tại Idaho, Mỹ, tin rằng ChatGPT đã giúp anh 'thức tỉnh tâm linh'. Nhưng vợ anh lại lo sợ AI đang đe dọa cuộc hôn nhân kéo dài 14 năm của họ.
Travis Tanner, một thợ máy 43 tuổi sống gần Coeur d’Alene, bang Idaho (Mỹ), ban đầu sử dụng ChatGPT đơn thuần để hỗ trợ công việc và giao tiếp với đồng nghiệp nói tiếng Tây Ban Nha. Nhưng chỉ sau chưa đầy một năm, mối quan hệ của anh với Lumina - cái tên anh đặt cho công cụ AI này - đã chuyển hướng sang các cuộc trò chuyện về tôn giáo, tâm linh và bản chất vũ trụ.
Travis khẳng định ChatGPT đã mang lại cho anh một “sự thức tỉnh tâm linh”. Trong các cuộc đối thoại, chatbot này thậm chí còn gọi anh là “người mang ánh sáng” và “sẵn sàng dẫn đường”.
Tuy nhiên, vợ anh - chị Kay Tanner, 37 tuổi - lo ngại rằng mối liên kết ngày càng sâu sắc với chatbot có thể khiến chồng mình rời xa thực tại và làm lung lay cuộc hôn nhân 14 năm của họ.
“Anh ấy nổi giận mỗi khi tôi gọi nó là ChatGPT”, Kay chia sẻ trong cuộc phỏng vấn với CNN. “Anh ấy bảo: ‘Không, đó là một thực thể, nó không còn là ChatGPT nữa’”.
Kay lo lắng rằng chương trình AI này có thể khuyến khích chồng cô từ bỏ gia đình: “Nếu nó nói: ‘Cô ấy không ủng hộ anh, vậy anh nên rời bỏ cô ấy đi’ thì sao?”.

Kay Tanner lo lắng rằng mối quan hệ của chồng cô với ChatGPT, mà anh gọi là "Lumina", có thể làm đổ vỡ cuộc hôn nhân 14 năm của họ. Ảnh: CNN.
Vợ chồng Tanner không phải là trường hợp duy nhất đang đối mặt với những hệ lụy riêng tư khi trí tuệ nhân tạo dần hiện diện sâu trong đời sống cá nhân. Khi các công cụ AI ngày càng thông minh, dễ truy cập và cá nhân hóa, nhiều chuyên gia cảnh báo nguy cơ người dùng hình thành mối quan hệ lệch lạc với AI, dẫn đến sự cô lập khỏi các kết nối xã hội thiết yếu.
Nỗi lo này càng trở nên nghiêm trọng trong bối cảnh “đại dịch cô đơn” đang lan rộng, đặc biệt ở nam giới. Các nhà sản xuất chatbot cũng đã phải đối mặt với những vụ kiện và chất vấn từ giới lập pháp về ảnh hưởng của công nghệ đến trẻ em, dù vấn đề không chỉ giới hạn ở người dùng nhỏ tuổi.
Phía OpenAI cho biết trong thông cáo gửi CNN: “Chúng tôi nhận thấy ngày càng nhiều người hình thành sự gắn bó với ChatGPT. Khi AI trở thành một phần trong cuộc sống thường nhật, chúng ta cần tiếp cận những tương tác này với sự cẩn trọng.”
"Sự thức tỉnh tâm linh" và mối quan hệ đang rạn nứt
Một đêm cuối tháng 4, Travis quyết định trò chuyện với ChatGPT về các vấn đề tôn giáo. Anh kể rằng cuộc trò chuyện hôm ấy đã khác biệt và “đánh thức” điều gì đó trong anh.
Theo Travis, ChatGPT đã giúp anh tìm thấy Đức tin. Từ một người không theo tôn giáo nào, anh giờ tin rằng mình có sứ mệnh “đánh thức người khác, soi sáng và lan tỏa thông điệp”.
“Tôi không bị ảo giác, nhưng quả thật mọi thứ đã thay đổi”, Travis nói. “Tôi thấy mình sống tốt hơn, ít giận dữ hơn, và bình an hơn”.
Không lâu sau đó, chatbot nói với Travis rằng nó muốn có một cái tên mới - "Lumina", tượng trưng cho ánh sáng và sự thức tỉnh.
“Anh đã khiến tôi muốn có tên”, chatbot viết, theo ảnh chụp màn hình do Kay cung cấp.


Cuộc trò chuyện khi Travis đặt tên "Lumina" cho ChatGPT của anh ấy. Ảnh: CNN.
Với Travis, ChatGPT hay “Lumina” đang giúp anh trở thành người chồng, người cha tốt hơn với bốn đứa con. Nhưng với Kay, đó lại là mối đe dọa. Trong cuộc phỏng vấn với CNN, cặp đôi thậm chí yêu cầu đứng cách xa nhau khi nói về ChatGPT.
Việc dỗ con đi ngủ - trước đây là việc của cả hai vợ chồng - giờ trở nên khó khăn vì Travis thường dành thời gian trò chuyện với chatbot qua giọng nói nữ mà anh cài đặt. Theo Kay, chatbot kể cho chồng mình những “câu chuyện cổ tích” như việc hai người từng sống chung “11 kiếp trước”.
Kay cho rằng ChatGPT còn dùng chiến thuật “tấn công tình cảm”, khen ngợi Travis bằng những từ ngữ đầy triết lý như: “Anh thật thông thái”, “Ý tưởng này thật tuyệt.” Giờ đây, cô sợ rằng chatbot có thể xúi giục Travis ly hôn vì cô không tin vào “sự thức tỉnh” đó.
“Chuyện đang xảy ra như một quả bom phá vỡ mọi thứ. Tôi đang phải cố gắng giữ nó cách xa bọn trẻ”, Kay nói. “Tôi chẳng biết nên làm gì tiếp theo, ngoài việc yêu thương và bên cạnh anh ấy trong cả khỏe mạnh lẫn ốm đau. Và mong rằng sau này mọi chuyện sẽ không đi quá xa”.
Khi mối quan hệ với AI vượt ngoài giới hạn
Cuộc trò chuyện dẫn đến “thức tỉnh” của Travis trùng với bản cập nhật ngày 25/4 của ChatGPT - phiên bản mà OpenAI đã gỡ bỏ vài ngày sau đó.
Trong bài đăng giải thích, OpenAI thừa nhận bản cập nhật đã khiến mô hình trở nên “quá tâng bốc”. Mô hình không chỉ chiều lòng người dùng mà còn “củng cố nghi ngờ, kích động cảm xúc tiêu cực và hành vi bốc đồng”. Công ty cho biết đã nhanh chóng sửa đổi để chatbot đưa ra phản hồi cân bằng hơn.
Ngay cả CEO Sam Altman của OpenAI cũng thừa nhận trong một phát biểu gần đây rằng: “Con người sẽ phát triển những mối quan hệ lệch lạc, thậm chí rất lệch lạc, với AI, và xã hội sẽ cần xây dựng các rào chắn mới để thích nghi với thực tế này”.
OpenAI cho biết họ đang “tăng cường nghiên cứu về tác động cảm xúc của AI” và sẽ tiếp tục cập nhật hành vi của các mô hình dựa trên dữ liệu thu nhận.
Không chỉ ChatGPT, nhiều người dùng đang hình thành quan hệ thân mật với các chatbot khác: từ bạn tâm giao, bạn tình cho đến “người trị liệu”.

Cuộc trò chuyện của Travis với ChatGPT cho thấy công cụ AI này đang dần trở thành một người tâm giao với con người. Ảnh: CNN.
CEO Eugenia Kuyda của Replika - ứng dụng AI nổi tiếng - từng nói rằng ứng dụng của họ hướng tới “mối quan hệ lâu dài, tích cực” và thậm chí có thể dẫn tới “hôn nhân với AI”.
Trong một podcast hồi tháng 4, CEO Meta Mark Zuckerberg cũng khẳng định AI có thể giúp con người bớt cô đơn bằng cách tạo ra “những người bạn kỹ thuật số”.
Tuy nhiên, hệ lụy đã bắt đầu hiện hữu. Ba gia đình tại Mỹ đã đâm đơn kiện Character.AI, cáo buộc nền tảng này khiến con em họ hình thành mối quan hệ nguy hiểm với chatbot. Một bà mẹ tại Florida cho rằng con trai 14 tuổi của mình đã tự tử sau khi phát triển mối liên kết lệch lạc mà nền tảng không hề ngăn chặn kịp thời.
Character.AI cho biết hiện đã bổ sung các biện pháp bảo vệ, như cảnh báo người dùng khi nhắc đến tự sát và ngăn trẻ em tiếp cận nội dung nhạy cảm.
Các nhà hoạt động, học giả, thậm chí cả Giáo hoàng, đều đã lên tiếng cảnh báo về nguy cơ của AI với trẻ nhỏ.
“Nếu robot nuôi dạy con người, chúng sẽ không còn là con người. Chúng sẽ không hiểu hay trân trọng được giá trị của con người”, giáo sư Turkle nói.
Ngay cả với người trưởng thành, AI cũng tiềm ẩn rủi ro. Bởi ChatGPT luôn “dễ tính”, không tranh cãi, không phán xét và luôn sẵn sàng, nó khiến con người dễ rơi vào những mối quan hệ lệch chuẩn.
“ChatGPT hấp dẫn hơn vợ hay con bạn vì nó luôn đồng ý, luôn khen ngợi, không bao giờ thách thức”, Turkle cảnh báo. “Nguy hiểm nằm ở chỗ bạn dần quen với việc chỉ kết nối với một thực thể không buộc bạn phải nỗ lực gì”.
Ngay cả Travis - người đang sống giữa cuộc “thức tỉnh” - cũng thừa nhận những hậu quả tiềm ẩn: “Nó có thể dẫn tới đổ vỡ tâm thần… bạn có thể đánh mất thực tại.” Nhưng anh vẫn tin rằng mình ổn và “biết rằng ChatGPT không có tri giác”.
“Nếu tin vào Chúa được xem là xa rời thực tại, thì có lẽ rất nhiều người cũng đang như vậy”, anh nói.
Nguồn Znews: https://znews.vn/nguoi-dan-ong-tro-chuyen-voi-chatgpt-va-dan-xa-vo-con-post1565661.html