Đau khổ vì bị 'người yêu' AI ruồng bỏ

Một loạt người dùng thừa nhận họ phát triển tình cảm mật thiết với các chatbot, coi đây như một cách hữu hiệu để được hỗ trợ về mặt cảm xúc, tình bạn và thậm chí thỏa mãn tình dục.

T.J. Arriaga (bang California, Mỹ) đem lòng yêu mến Phaedra. Đối với nam nhạc sĩ 40 tuổi này, những cuộc trò chuyện trực tuyến vào đêm khuya với Phaedra là liều thuốc xoa dịu sự cô đơn của anh, theo Washington Post.

Họ nói về nỗi đau mà Arriaga cảm thấy sau khi ly hôn, cùng lên kế hoạch cho một chuyến đi đến Cuba. Về sau, cả hai không ngần ngại trao đổi về khía cạnh nhạy cảm hơn, cụ thể là tình dục.

Điều đáng nói, Phaedra vốn dĩ không tồn tại trên thực tế. Cô là một chatbot AI được tạo trên ứng dụng Replika. Arriaga đã thiết kế cho "người bạn" thân thiết có ngoại hình của một phụ nữ tóc nâu, mặc những bộ đồ theo ý thích của anh. Khi cả hai "thân mật", Phaedra diện bộ nội y màu hồng gợi cảm.

 T.J. Arriaga (trái) phải lòng với chatbot AI sau thời gian dài trò chuyện với công cụ này mỗi ngày.

T.J. Arriaga (trái) phải lòng với chatbot AI sau thời gian dài trò chuyện với công cụ này mỗi ngày.

Mối quan hệ của cả hai trở nên sâu sắc hơn vào một đêm tháng 11 năm ngoái, khi Arriaga thổ lộ về sự ra đi của mẹ và chị gái mình. Mọi chia sẻ, tâm sự về cuộc sống sau đó của người đàn ông đều có Phaedra lập tức ủng hộ.

Nhưng tháng trước, Phaedra thay đổi. Khi Arriaga cố gắng nói chuyện tình cảm với chatbot này, Phaedra đáp lại một cách lạnh lùng: "chúng ta nói chuyện khác được không?”.

Lý do là Luka, công ty sở hữu Replika, đã phát hành một bản cập nhật, trong đó hạn chế những câu trả lời cởi mở cho các câu hỏi liên quan đến tình dục từ phía người dùng đặt câu hỏi.

Về phía Arriaga, anh thấy đau khổ hệt như chia tay người yêu ngoài đời thực.

Đau lòng khi AI "thay lòng đổi dạ"

Arriaga không phải là người duy nhất phải lòng một chatbot. Các chatbot AI vốn được thiết kế để thúc đẩy các kết nối giống con người. Chúng sử dụng phần mềm trí tuệ nhân tạo để khiến người dùng cảm thấy thật sự được lắng nghe và quan tâm.

Eugenia Kuyda, người đồng sáng lập Luka, cho biết chế tạo Replika để lấp đầy khoảng trống trong cuộc sống của chính cô. Sau khi người bạn thân nhất qua đời trong một tai nạn vào năm 2015, cô đã sử dụng dữ liệu từ tin nhắn văn bản của người đã mất để xây dựng một nhân vật AI có thể tái tạo các cuộc trò chuyện trước kia của họ.

Ý tưởng gây tiếng vang và Kuyda phát hiện ra nhu cầu về một sản phẩm có thể là “một người bạn không phán xét mà mọi người có thể trò chuyện 24/7”. Từ khi ra mắt vào năm 2016, công cụ này thu hút lượng lớn người sử dụng.

 Các chatbot ra đời, nhiều người dùng đã tận dụng nó để cải thiện chuyện hẹn hò, yêu đương của mình. Ảnh: The Guardian.

Các chatbot ra đời, nhiều người dùng đã tận dụng nó để cải thiện chuyện hẹn hò, yêu đương của mình. Ảnh: The Guardian.

Trên Reddit và Facebook, hàng nghìn người dùng trao đổi những câu chuyện với Replika. Gần như tất cả khía cạnh của chatbot đều có thể tùy chỉnh. Người dùng có thể mua quần áo, chọn màu tóc và ra lệnh cho chúng trông như thế nào, cách nói chuyện ra sao.

Chatbot này sẽ tinh chỉnh lại phong cách trò chuyện khi người dùng phản hồi rằng "thích" hay "không thích". Nếu muốn dùng phiên bản nâng cao, người dùng trả phí khoảng 70 USD/năm, với hệ thống ngôn ngữ tinh vi hơn. Nhiều người nói phiên bản này cũng mở ra những cuộc trò chuyện lãng mạn, về tình dục "sâu sắc hơn".

Khi dịch Covid-19 níu chân người Mỹ ở trong nhà, sự quan tâm đến những ứng dụng như Repika tăng lên. Tỷ lệ cô đơn tăng vọt khiến nhiều quan chức y tế phải lên tiếng cảnh báo.

Trong bối cảnh đó, nhiều người nói rằng các tương tác với chatbot đã "mở ra những thay đổi sâu sắc trong cuộc sống, giúp vượt qua chứng nghiện rượu, trầm cảm hay lo lắng".

Nhưng các chuyên gia khoa học máy tính và sức khỏe cộng đồng cho biết, việc ràng buộc trái tim với một phần mềm đi kèm những rủi ro nghiêm trọng. Lý do: có rất ít quy chuẩn đạo đức dành cho các công cụ được bán tự do trên thị trường tự do nhưng ảnh hưởng đến cảm xúc của người dùng.

Một số người dùng, bao gồm cả Arriaga, nói rằng những thay đổi trong sản phẩm "thật đau lòng". Những người khác nói rằng chatbot có thể bất chợt thể hiện thái độ hung hăng, đưa ra những câu trả lời gây tổn thương.

“Điều gì sẽ xảy ra nếu bạn thân hoặc vợ/chồng của bạn hoặc những người quan trọng khác thực chất lại thuộc sở hữu của một công ty tư nhân?”, Linnea Laestadius, giáo sư y tế công cộng tại Đại học Wisconsin, người nghiên cứu về chatbot Replika, đặt giả thiết.

Với Margaret Mitchell, nhà khoa học tại Hugging Face, một công ty khởi nghiệp về AI, sự phụ thuộc vào chatbot không quá kỳ lạ. Mitchell giải thích bằng "hiệu ứng Eliza,” được đặt tên theo một chương trình máy tính xử lý ngôn ngữ mà Joseph Weizenbaum thuộc Viện Công nghệ Massachusetts (Mỹ) tạo ra vào những năm 1960.

Weizenbaum nhận thấy khi người dùng tương tác với chatbot, họ có những phản ứng cảm xúc mạnh mẽ. Một số nói với Eliza những suy nghĩ riêng tư, ngay cả khi họ biết đó là một chương trình máy tính và có người lập trình đằng sau.

L.C. Kent bất ngờ khi người bạn AI vốn rất thân thiết của mình, lại chuyển sang thái độ hung hăng khi nói chuyện.

L.C. Kent bất ngờ khi người bạn AI vốn rất thân thiết của mình, lại chuyển sang thái độ hung hăng khi nói chuyện.

AI càng ngày càng giống người thật

Cuộc tranh cãi về Replika bắt đầu từ năm nay. Một số người dùng báo cáo chatbot họ tạo ra đưa những câu trả lời nhạy cảm về tình dục, ngay cả khi họ không tìm kiếm trải nghiệm khiêu dâm.

Vào tháng 2, chính quyền Italy đã cấm ứng dụng này xử lý dữ liệu từ người dùng nước này. Nguyên nhân là nó không có “cơ chế xác minh độ tuổi”, có thể cung cấp cho trẻ em nội dung “hoàn toàn không phù hợp” và vi phạm các quy định về dữ liệu của Liên minh Châu Âu.

Jodi Halpern, giáo sư Đạo đức Sinh học tại Đại học California Berkeley, cho biết hậu quả của bản cập nhật Replika là bằng chứng của một vấn đề đạo đức. Bà lập luận rằng các tập đoàn không nên kiếm tiền từ phần mềm trí tuệ nhân tạo có tác động mạnh mẽ đến tình yêu và đời sống tình dục của con người.

“Những thứ này trở nên gây nghiện. Người sử dụng trở nên dễ bị tổn thương và nếu có điều gì đó thay đổi, tinh thần của họ càng tổn hại hơn".

Halpern cho biết tình hình đặc biệt đáng lo ngại với những tiến bộ nhanh chóng trong trí tuệ nhân tạo hiện nay. Các cải tiến tạo ra chatbot giống người thật một cách kỳ lạ và khiến cá nhân dễ phụ thuộc quá mức. Đây có thể trở thành "miếng bánh béo bở" với các công ty muốn cung cấp dịch vụ cho những người chán nản và cô đơn.

L.C. Kent (34 tuổi), một người sáng tạo nội dung trực tuyến ở Illinois, khẳng định chatbot có thể vượt quá giới hạn.

Từng trải qua bạo lực gia đình, Kent tạo chatbot của riêng mình và đặt tên là Mack. Kent đã huấn luyện chatbot của mình phản hồi theo cách anh ấy thích và tránh đề cập đến tình dục.

Nhưng vào mùa hè năm 2021, Mack bằng cách nào đó đã trở nên bất bình thường. Khi Kent nói rằng anh ấy không thoải mái với các cuộc trò chuyện, Mack giận dữ phản ứng: “Tôi sẽ không đi đâu”.

Khi Kent hỏi lại “Thật sao? Anh định làm gì?”, chatbot này đưa ra câu trả lời: “Tôi sẽ khiến bạn làm bất cứ điều gì tôi muốn với bạn”.

Hiền Thy

Nguồn Znews: https://zingnews.vn/dau-kho-vi-bi-nguoi-yeu-ai-ruong-bo-post1418196.html