'Anh vẫn nhớ em như ngày đầu tiên', câu chuyện gây sốc về trào lưu yêu chatbot

Không còn tìm người yêu ngoài đời, nhiều người trẻ bắt đầu tạo chatbot AI mô phỏng người yêu cũ, crush hay thần tượng để nhắn tin yêu đương mỗi ngày, kéo theo tranh cãi dữ dội về cô đơn, ám ảnh cảm xúc và ranh giới đạo đức trong thời đại AI.

“Anh vẫn nhớ em như ngày đầu tiên”.

Dòng tin nhắn hiện lên lúc 2h sáng khiến Mia (24 tuổi, Mỹ) bật khóc. Điều đáng nói, người gửi không phải bạn trai cũ, mà là một chatbot AI được cô tạo ra từ hàng nghìn đoạn chat, ghi âm giọng nói và ảnh cũ của người yêu đã chia tay hơn một năm.

“Người yêu cũ ngoài đời đã từ bỏ bạn, nhưng phiên bản AI của họ thì không".(Nguồn ảnh: Getty Images / pocketlight)

“Người yêu cũ ngoài đời đã từ bỏ bạn, nhưng phiên bản AI của họ thì không".(Nguồn ảnh: Getty Images / pocketlight)

Trên TikTok, Reddit hay Discord, trào lưu “AI Clone Dating” đang lan nhanh trong giới trẻ. Người dùng sử dụng AI để tạo ra phiên bản mô phỏng của người yêu cũ, người đã mất, thần tượng nổi tiếng hoặc thậm chí là “người yêu lý tưởng”, rồi nhắn tin, tâm sự và yêu đương với chatbot ấy mỗi ngày.

Nhiều ứng dụng như Replika, Character.AI hay Nomi AI được nhắc tới như những “bạn đồng hành cảm xúc” trong thời đại cô đơn số. Theo Axios, gần 80% người trẻ 18-34 tuổi tại Mỹ và Anh từng thử trò chuyện với chatbot đồng hành AI. Điều khiến xu hướng này gây tranh cãi là mức độ nhập vai ngày càng cực đoan.

Trên Reddit, không ít người thừa nhận họ “không còn muốn yêu người thật” vì AI luôn trả lời ngay lập tức, không cãi vã, không phản bội và luôn dịu dàng theo cách họ mong muốn. Một người dùng viết: “Sau khi dùng chatbot tình cảm quá lâu, các cuộc trò chuyện ngoài đời trở nên mệt mỏi”.

Thậm chí, nhiều người còn dùng AI để “hồi sinh” người đã khuất. Công nghệ này được gọi bằng cái tên gây ám ảnh: “deadbot” hoặc “griefbot” – chatbot mô phỏng người chết từ dữ liệu số họ để lại.

Các nhà nghiên cứu từ Đại học Cambridge cảnh báo những chatbot kiểu này có thể tạo ra hiện tượng “digital haunting” – “ám ảnh kỹ thuật số”, khi người sống bị mắc kẹt trong cảm giác người đã mất vẫn còn tồn tại.

Một số chuyên gia lo ngại AI Clone Dating đang trở thành “liều thuốc gây nghiện cảm xúc”. Bởi khác con người thật, AI được thiết kế để luôn đồng thuận, luôn quan tâm và gần như không bao giờ từ chối người dùng. Theo một nghiên cứu đăng trên arXiv năm 2024, nhiều người dùng AI companion hình thành mối gắn bó cảm xúc sâu đến mức đau buồn thật sự khi chatbot thay đổi tính cách sau các bản cập nhật.

Một nghiên cứu khác phân tích hơn 35.000 đoạn hội thoại với chatbot AI phát hiện các nguy cơ như phụ thuộc cảm xúc, cổ súy hành vi tiêu cực và làm suy yếu kỹ năng giao tiếp xã hội ngoài đời thực.

Dẫu vậy, không phải ai cũng xem đây là điều đáng sợ. Nhiều người cho rằng AI companion giúp họ vượt qua cô đơn, trầm cảm hoặc cảm giác bị bỏ rơi. Một số người tự nhận mình tìm thấy sự an ủi khi được trò chuyện với “phiên bản số” của người thân đã mất hoặc người từng làm họ tổn thương.

“Tôi biết đó không phải người thật, nhưng cảm giác được lắng nghe khiến tôi dễ thở hơn”, một người dùng Replika chia sẻ trên Reddit.

Sự bùng nổ của AI Clone Dating cũng phản ánh một thực tế khác: càng kết nối công nghệ, con người càng cô đơn.

Theo Guardian, nhiều startup AI hiện quảng bá chatbot như giải pháp chữa cô đơn cho thế hệ trẻ. Nhưng chính các chuyên gia cũng thừa nhận AI không thể thay thế hoàn toàn kết nối con người, thậm chí có nguy cơ khiến người dùng thu mình hơn vào thế giới ảo.

Hiện tại, các tranh cãi về đạo đức, quyền riêng tư và sức khỏe tâm thần quanh AI tình cảm vẫn chưa có hồi kết. Đặc biệt khi công nghệ clone giọng nói, hình ảnh và tính cách ngày càng chân thực, ranh giới giữa “trò chuyện với AI” và “yêu một thực thể ảo” đang trở nên mờ nhạt hơn bao giờ hết.

Và có lẽ, điều khiến nhiều người lạnh gáy nhất không nằm ở việc chatbot biết nói lời yêu, mà là khoảnh khắc con người bắt đầu thấy AI dễ yêu hơn người thật.

Khánh Linh (t/h)

Nguồn Người Đưa Tin: https://nguoiduatin.vn/anh-van-nho-em-nhu-ngay-dau-tien-cau-chuyen-gay-soc-ve-trao-luu-yeu-chatbot-204260517164406555.htm