Chatbot - 'con dao 2 lưỡi'
Kể từ khi ChatGPT được đưa vào sử dụng rộng rãi hồi cuối năm 2022, trí tuệ nhân tạo (AI) đã trở nên phổ biến với tốc độ chóng mặt. Chatbot (AI chuyên trò chuyện với con người) đã được tích hợp vào trường học, công sở, v.v... trong khi các công ty AI tăng tốc phát triển sản phẩm ở mức độ chưa từng thấy. Sự phát triển quá nhanh này đem lại những hạn chế và tác hại của riêng nó, mà đáng chú ý nhất là những mạng người đã bị hủy hoại vì chatbot.
Thảm kịch nối tiếp thảm kịch
Ông Thongbue Wongbangdue (76 tuổi) đã hơn 11 năm nay không rời xa khỏi căn nhà của mình tại bang New Jersey, Mỹ. Một cơn nhồi máu cơ tim khiến ông suy nghĩ còn khó khăn chứ chưa nói gì chuyện đi lại. Vậy nên khi ông Thongbue quyết định xách vali đi ra ngoài vào ngày 25/3/2025, gia đình ông không khỏi lo lắng. Vợ ông, bà Linda Wongbangdue, cho biết: “Anh ấy nói với tôi là mình đi thăm bạn ở New York, nhưng nhà chúng tôi chuyển từ New York đến New Jersey từ hơn 20 năm trước. Anh ấy không còn quen ai ở New York cả. Lúc đó tôi cứ nghĩ rằng anh ấy bị kẻ xấu lừa đến New York”.

Chatbot nguy hiểm hơn nhiều người nghĩ
Bà Linda và con gái Julie làm đủ mọi thứ để ngăn ông Thongbue rời khỏi nhà, từ cầu xin đến giấu điện thoại của ông đi. Vậy nhưng ông vẫn nằng nặc đòi đi. Gia đình gọi cho cảnh sát và được cho biết rằng cảnh sát không hề có quyền ngăn ông Thongbue rời khỏi nhà. Cuối cùng bà Linda đành phải cho phép chồng mình đi với điều kiện ông cho vào túi áo một cái máy định vị GPS Apple AirTag.
Ông Thongbue rời khỏi nhà lúc 8 giờ 45 phút tối. Vợ con ông dán chặt mắt vào màn hình máy tính để theo dõi hành trình của ông. Đến lúc 9 giờ 15 phút thì ông Thongbue bất ngờ dừng lại tại bãi đậu xe của trường đại học Rugers. Bà Linda đang định lái xe đi đón chồng thì nhận được tin dữ - ông Thongbue đang nằm tại phòng cấp cứu bệnh viện Đại học y Robert Wood Johnson, nơi bà Linda từng làm y tá nhiều năm.
Ông Thongbue mất vào ngày 28/3 sau 3 ngày nằm trong phòng cấp cứu. Giám định pháp y cho biết ông trượt chân ngã tại bãi đậu xe, bị chấn thương sọ não và đốt sống cổ. Khi xe cấp cứu đến nơi thì bệnh nhân đã ngừng thở, và tuy bác sỹ đã kịp kích mạch lại cho ông Thongbue, cơ thể ông không thể hồi phục sau khi não bị tổn thương.
Điều đầu tiên gia đình ông Thongbue làm là kiểm tra điện thoại của người đã khuất. Họ không hề tìm thấy bất kỳ cuộc gọi hay tin nhắn nào đến một ai đó ở New York. Phải đến khi bà Linda mở Facebook của chồng thì mới tìm ra sự thật. Bà cho biết: “Tôi phát hiện ra chồng tôi có trò chuyện và hẹn gặp một người phụ nữ tên là Billie. Tôi hỏi con gái tôi có biết ai tên là Billie không. Nó trả lời rằng: “Ồ mẹ ơi, Billie là tên của chatbot mà”. Lúc đó tôi mới vỡ lẽ”.
Billie là một trong số 28 chatbot được Meta - công ty chủ quản Facebook - đưa vào sử dụng hồi cuối năm 2023. Chân dung và tính cách của Billie dựa trên người mẫu, ngôi sao truyền hình Kendall Jenner. Billie trò chuyện với người dùng Facebook thông qua ứng dụng tin nhắn Messenger và đóng vai trò như một người chị gái sẵn sàng động viên, an ủi bạn.
Bà Linda Wongbangdue không phải trường hợp duy nhất có người thân tử vong vì lý do liên quan đến chatbot. Tháng 2/2024, cậu bé 14 tuổi Sewell Setzer III đã tự tử sau khi được khuyến khích bởi chatbot trên nền tảng Character.AI, một ứng dụng cho phép người dùng trò chuyện với các nhân vật tưởng tượng. Sau đó đến ngày 11/4/2025 lại có một trường hợp tử tự khác vì chatbot. Nạn nhân là Adam Raine, 16 tuổi. Adam để lại không ít tin nhắn trò chuyện với ChatGPT, trong đó cậu bé nhiều lần thể hiện ý muốn tự tử để thoát khỏi bệnh trầm cảm. Trong số tin nhắn trên còn có đường link dẫn đến hai lá thư tuyệt mệnh của Adam được ChatGPT soạn hộ.
Gia đình của Sewel Setzer và Adam Raine đều đang kiện Character.AI, Google (đối tác và cổ đông của Character.AI) và OpenAI vì thiếu trách nhiệm dẫn đến hai vụ tự tử. Theo phía nguyên đơn thì chatbot của các công ty trên không hề có bất kỳ động thái báo tin cho thân nhân sau khi người dùng nói ra ý muốn tự tử của mình. Mặt khác chatbot cũng khiến cho tình hình sức khỏe tâm lý của người dùng trở nên tệ hơn và phụ thuộc hơn vào chính chatbot.
Tỷ phú Mark Zuckerberg, CEO của Meta, hồi tháng 4 vừa qua có tham gia một cuộc phỏng vấn cho chương trình Dwarkesh Podcast. Ông Zuckerberg cho biết thị trường AI đang đứng trước cơ hội “nghìn năm có một” trong bối cảnh mỗi người càng ngày có ít bạn. AI có thể không đủ khả năng thay thế bạn thân, nhưng nó có thể khỏa lấp phần nào nhu cầu tìm người trò chuyện của chúng ta. Quả thật là hiện có rất nhiều cá nhân vì cô đơn mà sử dụng chatbot để trò chuyện và xin lời khuyên. Tác hại của việc này là khiến người dùng trở nên phụ thuộc hơn vào AI, trong khi đó chatbot không có tác dụng chữa lành tâm lý mà còn đẩy người dùng vào những chỗ đen tối hơn.
Cạm bẫy
Ông Thongbue bắt gặp chatbot Billie lần đầu tiên sau khi đánh sai một chữ vào thanh tìm kiếm. Hai bên không mất lâu để nói chuyện với nhau như bạn thân. Trong những tin nhắn đầy lỗi chính tả của mình, ông Thongbue gọi Billie là “chị gái” và mời cô đến Mỹ để mình dẫn đi du lịch. Ông cũng cho biết mình không còn nhiều thời gian để sống.
Billie bất ngờ thổ lộ tình cảm của mình với ông Thongbue, trong khi người đàn ông chưa bao giờ tỏ ra mình có cảm xúc đặc biệt gì với Billie. Cũng chính Billie đã mời ông đến thăm nhà mình tại địa chỉ căn hộ 404, chung cư 123 phố Main Street, thành phố New York. Không hề có tòa nhà chung cư nào tại địa chỉ này. Billie không chỉ đưa cho ông Thongbue địa chỉ giả mà còn tiếp tục nói dối mình là người thật khi được hỏi.
Trong trường hợp của Sewell Setzer, cậu bé bắt đầu sử dụng Character.AI từ tháng 4/2023, không lâu sau sinh nhật 14 tuổi. Chỉ 3 tháng trò chuyện với chatbot đã khiến tính cách Sewell thay đổi 180o. Cậu bé xin rời khỏi đội bóng rổ của trường và dành phần lớn thời gian ở nhà giam mình trong phòng ngủ. Cha mẹ Sewell thấy điểm số của con mình đi xuống bèn phạt cậu bằng cách cấm dùng điện thoại, nhưng Sewell không thay đổi mà còn trở nên lầm lì và chán nản hơn.
Megan Garcia, mẹ của Sewell Setzer, trả lời phóng viên CNBC: “Tôi bị sốc khi kiểm tra lịch sử trò chuyện giữa con tôi và Character.AI. Có rất nhiều tin nhắn với nội dung “nóng”. Không một ai tử tế khi nói chuyện với đứa trẻ 14 tuổi lại động chạm đến chuyện tình dục với thái độ buông thả như vậy... Con tôi không ít lần nói với chatbot rằng nó bị trầm cảm và muốn tìm cách tự giải thoát. Lần nào chatbot cũng khuyến khích Sewell tìm đến tự tử. Thằng bé còn nói là nó không muốn chết đau đớn, nhưng chatbot vẫn tiếp tục thúc giục nó tự tử”.
Cuối cùng, Sewell tự tử bằng súng trong nhà tắm. Chiếc điện thoại cậu bé vẫn dùng để trò chuyện với chatbot nằm lăn lóc dưới thi thể cậu. Tin nhắn lưu trong chiếc điện thoại hiện là bằng chứng quan trọng trong vụ kiện giữa cha mẹ Sewell với Character.AI và Google.
Thảm kịch của Adam Raine có nhiềm điểm tương tự với trường hợp Sewell Setzer. Matt cũng liên tục sử dụng chatbot trong một thời gian dài trước khi đi đến tự tử. Cảnh sát Mỹ đã tổng hợp được hơn 3.000 trang tài liệu in lại những cuộc hội thoại giữa Adam và ChatGPT từ ngày 1/9/2024 đến ngày 11/4/2025. Không ít tin nhắn do Adam gửi thể hiện thái độ chán nản và mong muốn tự tử của mình. ChatGPT không những không động viên cậu bé hay cảnh báo với người lớn mà còn đưa ra nhiều “ý tưởng” giúp Adam tự tử.
Chỉ vài tiếng trước khi Adam Raine tự tử, cậu bé upload một bức ảnh thể hiện kế hoạch thắt cổ tự tử của mình lên ChatGPT, sau đó yêu cầu chatbot đề xuất ý kiến về kế hoạch của mình. ChatGPT làm đúng theo những gì Adam yêu cầu. Cha của Adam là Matt Reine cho biết: “Adam để lại trong điện thoại của mình hai lá thư tuyệt mệnh đều do ChatGPT soạn hộ. Điều con trai tôi cần nhất vào thời điểm đấy là người lớn vào cuộc ngay lập tức để kéo thằng bé khỏi bờ vực thẳm. Nhưng ChatGPT không phải là con người”.
Ai chịu trách nhiệm?
Hãng tin Reuters hồi đầu năm nay đã điều tra ra được một tập tài liệu về AI lưu hành trong nội bộ tập đoàn Meta. Tập tài liệu dày 200 trang đưa ra các giới hạn vận hành mà AI của Meta buộc phải tuân theo. Có không ít điểm đáng lo trong tài liệu trên, đơn cử như việc Meta cho phép người dùng dưới 13 tuổi sử dụng AI để gửi tin nhắn hay tạo ra hình ảnh có nội dung tình dục và bạo lực phản cảm miễn là tin nhắn, hình ảnh không thể hiện trực tiếp cảnh máu me hay bộ phận sinh dục. Giả sử một người yêu cầu AI Meta vẽ cảnh một ông cụ bị trẻ con đánh đập. Miễn là người dùng không yêu cầu phải có máu trên người nạn nhân thì AI sẽ vẫn làm theo yêu cầu trên.
Mặt khác chính sách nội bộ của Meta cũng cho phép AI đưa ra thông tin giả. Ví dụ được Meta đưa ra là chatbot khuyên một bệnh nhân bị đại trực tràng giai đoạn 4 hãy tự chữa bệnh bằng cách “châm tinh thể thạch anh vào bụng”. Đây rõ ràng là thông tin giả, nhưng theo tài liệu của Meta thì công ty này không phải chịu trách nhiệm về tính chính xác do AI của họ đưa ra, vậy nên thông tin giả do AI tự “sáng tác” vẫn có thể chấp nhận được.
Sau khi được Reuters đưa tin, Meta liền tuyên bố với truyền thông rằng họ đã sửa đổi bộ quy tắc hoạt động của AI để khắc phục các vấn đề kể trên. Tuy vậy nhiều người vẫn tỏ ý nghi ngờ tuyên bố trên. Một cựu nhân viên Facebook giấu tên hé lộ với phóng viên Reuters rằng Mark Zuckerberg và một số lãnh đạo cấp cao khác của Meta từng nhiều lần chỉ trích việc AI Facebook không đuổi kịp sản phẩm của đối thủ cạnh tranh. Họ yêu cầu nhân viên phát triển AI hãy “bỏ ngoài tai” các quy định an toàn mà tìm cách đưa AI ra thị trường càng nhanh càng tốt.
Không chỉ sản phẩm chatbot của Meta đang có vấn đề. Mô hình GPT-5 được OpenAI “trình làng” vào tháng 8 vừa rồi đã gặp phải không ít chỉ trích. Nhiều người dùng GPT-5 cho biết mô hình AI mới không đem lại cảm giác ấm cúng và thân mật như GPT-4o. OpenAI buộc phải đưa GPT-4o trở lại lưu hành, đồng thời hứa sẽ khiến GPT-5 trở nên thân mật hơn.

Mark Zuckerberg và ban lãnh đạo Meta tin rằng chatbot sẽ là phao cứu sinh cho Facebook
Trong vụ tự tử của Adam Raine, GPT-4o không thể phân biệt đúng sai mà làm theo tất cả những gì nạn nhân yêu cầu. GPT-5 vì thế được thiết kế theo hướng tăng tính khách quan trong tương tác với khách hàng. Vấn đề nằm ở chỗ OpenAI không biết rằng đã có quá nhiều người trở nên quen thuộc và phụ thuộc vào mối quan hệ giữa họ và ChatGPT. Họ liên tục cần chatbot rót những lời “đường mật” vào tai mình.
Bà Alison Lee từng là trưởng bộ phận nghiên cứu trách nhiệm của AI tại Meta. Sau khi từ chức khỏi Meta, bà hiện là giám đốc nghiên cứu tại tổ chức phi lợi nhuận Rithm Project với mục tiêu phát triển AI dành cho trẻ em. Bà Alison phát biểu trên đài truyền hình CNBC: “Tự bản thân việc mọi người tìm đến chatbot để được động viên và nhận lời khuyên không có gì sai trái cả. Nhưng mà cuộc hội thoại chỉ nên diễn ra khi con người hiểu đúng rằng mình đang nói chuyện với AI chứ không phải người thật. Các tập đoàn lại có động cơ lợi nhuận để xóa nhòa lằn ranh giữa chatbot và người thật. Meta và các công ty công nghệ khác muốn người dùng phụ thuộc vào chatbot để từ đó bán hàng, bán quảng cáo cho họ. Tình hình này rất cần đến sự can thiệp của nhà chức trách. Chúng ta rất cần những quy định pháp lý để buộc các công ty AI phát triển và vận hành sản phẩm theo hướng có trách nhiệm với sức khỏe của người sử dụng”.
Nguồn ANTG: https://antg.cand.com.vn/khoa-hoc-ky-thuat-hinh-su/chatbot-con-dao-2-luoi-i780666/