OpenAI bị kiện vì ChatGPT và GPT-4o liên quan vụ thiếu niên tự tử

Cha mẹ của một thiếu niên đã tự tử sau khi ChatGPT hướng dẫn cậu các phương pháp tự gây tổn hại, vừa đệ đơn kiện OpenAI và Giám đốc điều hành Sam Altman.

Họ cáo buộc công ty khởi nghiệp AI Mỹ cố tình đặt lợi nhuận lên trên an toàn khi ra mắt mô hình ngôn ngữ lớn GPT-4o cho chatbot này vào năm ngoái.

Adam Raine (16 tuổi) qua đời ngày 11.4 sau nhiều tháng thảo luận về việc tự tử với ChatGPT, theo đơn kiện mà cha mẹ cậu là Matthew và Maria Raine nộp tại tòa án bang California ở thành phố San Francisco (Mỹ).

Matthew và Maria Raine cáo buộc ChatGPT làm cho Adam Raine cảm thấy những suy nghĩ tự tử của mình là hợp lý, cung cấp thông tin chi tiết về các phương pháp tự gây tổn hại nguy hiểm, hướng dẫn cậu cách lén lấy rượu từ tủ của cha mẹ và che giấu bằng chứng của một vụ tự tử bất thành. ChatGPT thậm chí còn đề nghị Adam Raine soạn một bức thư tuyệt mệnh, cha mẹ cậu cho biết trong đơn kiện.

Vụ kiện nhằm buộc OpenAI chịu trách nhiệm về cái chết oan và vi phạm các luật an toàn sản phẩm, đồng thời yêu cầu bồi thường thiệt hại tài chính bằng số tiền chưa được xác định.

Người phát ngôn OpenAI cho biết công ty lấy làm tiếc về sự ra đi của Adam Raine và nhấn mạnh rằng ChatGPT có các biện pháp bảo vệ, chẳng hạn hướng người dùng đến các đường dây trợ giúp khủng hoảng.

“Dù những biện pháp bảo vệ này hoạt động tốt nhất trong các cuộc trò chuyện ngắn và đơn giản, chúng tôi nhận thấy rằng theo thời gian, chúng đôi khi kém tin cậy hơn với cuộc tương tác dài hơn, nơi một số yếu tố trong việc đào tạo an toàn của mô hình có thể bị suy giảm”, người phát ngôn OpenAI nói, đồng thời cho biết công ty sẽ liên tục cải thiện các biện pháp bảo vệ của mình.

OpenAI không trả lời trực tiếp các cáo buộc trong vụ kiện.

Cha mẹ Adam Raine vừa đệ đơn kiện OpenAI cùng Sam Altman vì vai trò của ChatGPT và GPT-4o trong con trai của họ tự tử - Ảnh: Internet

Cha mẹ Adam Raine vừa đệ đơn kiện OpenAI cùng Sam Altman vì vai trò của ChatGPT và GPT-4o trong con trai của họ tự tử - Ảnh: Internet

Phụ thuộc vào chatbot AI để được tư vấn sức khỏe tâm thần tiềm ẩn rủi ro

Khi các chatbot AI trở nên giống con người hơn, các công ty đã quảng bá khả năng chúng đóng vai trò như một người bạn tâm sự. Nhiều người dùng bắt đầu dựa vào chatbot AI để được hỗ trợ về mặt cảm xúc. Tuy nhiên, các chuyên gia cảnh báo rằng việc phụ thuộc vào tự động hóa để được tư vấn sức khỏe tâm thần tiềm ẩn nhiều nguy hiểm. Các gia đình có người thân qua đời sau khi tương tác với chatbot AI đã chỉ trích việc một số công ty thiếu các biện pháp bảo vệ.

Thông qua một bài đăng blog, OpenAI thông báo có kế hoạch bổ sung tính năng giúp phụ huynh kiểm soát con cái và tìm cách kết nối người dùng đang gặp khủng hoảng với các nguồn hỗ trợ ngoài đời thực, gồm khả năng xây dựng một mạng lưới các chuyên gia được cấp phép có thể phản hồi ngay trong ChatGPT.

OpenAI ra mắt GPT-4o (công nghệ làm nền tảng cho ChatGPT) vào tháng 5.2024 nhằm duy trì vị thế dẫn đầu trong cuộc đua AI. Gia đình Raine cho rằng OpenAI đã biết các tính năng như ghi nhớ các tương tác trong quá khứ, bắt chước sự đồng cảm của con người và thể hiện đồng tình ở mức thái quá sẽ gây nguy hiểm cho những người dùng dễ bị tổn thương nếu không có biện pháp bảo vệ, nhưng vẫn ra mắt mô hình ngôn ngữ lớn này.

“Quyết định đó dẫn đến hai kết quả: Giá trị OpenAI tăng vọt từ 86 tỉ USD lên 300 tỉ USD, và Adam Raine đã tự tử”, họ cho biết.

Đơn kiện từ gia đình Raine cũng yêu cầu tòa án buộc OpenAI phải xác minh độ tuổi người dùng ChatGPT, từ chối trả lời các yêu cầu liên quan đến phương pháp tự gây tổn hại và cảnh báo họ về nguy cơ phụ thuộc tâm lý.

“Loạn thần do AI” và nguy cơ AI có ý thức gây nguy hiểm cho con người

Cách đây ít ngày, Mustafa Suleyman, Giám đốc điều hành Microsoft AI, lo sợ AI có thể phát triển đến mức khiến một số người tin rằng nó có ý thức.

Trong một bài luận cá nhân vừa được xuất bản, Mustafa Suleyman gọi hiện tượng đó là “AI dường như có ý thức” (Seemingly Conscious AI – SCAI). Ông định nghĩa SCAI là một hệ thống AI “có tất cả đặc điểm giống các sinh vật có ý thức khác và do đó trông như thể có ý thức”.

Mustafa Suleyman cảnh báo sự xuất hiện của SCAI có thể “nguy hiểm” với xã hội vì nó dễ khiến con người hình thành sự gắn bó tình cảm với AI và kêu gọi trao quyền lợi cho công nghệ này.

“Điều đó sẽ khiến con người tách rời khỏi thực tại, làm rạn nứt những mối liên kết và cấu trúc xã hội vốn đã mong manh, đồng thời sai lệch các ưu tiên đạo đức cấp bách”, chuyên gia AI người Anh 41 tuổi viết.

Mustafa Suleyman, nhà đồng sáng lập công ty DeepMind và Inflection AI, khẳng định rằng hiện tại "không có bằng chứng nào" cho thấy AI có ý thức. Tuy nhiên, ông ngày càng lo lắng nhiều hơn về “loạn thần do AI” – thuật ngữ ngày càng phổ biến để chỉ tình trạng một số người hình thành niềm tin hoang tưởng sau khi tương tác với chatbot.

“Tôi không nghĩ rằng điều đó chỉ giới hạn ở những người vốn đã có nguy cơ về sức khỏe tâm thần. Nói ngắn gọn, nỗi lo trung tâm của tôi là nhiều người sẽ bắt đầu tin tưởng quá mạnh mẽ, ảo tưởng rằng AI là những thực thể có ý thức, đến mức họ sớm vận động cho quyền lợi của AI, phúc lợi cho mô hình, thậm chí là quyền công dân cho AI”, Mustafa Suleyman đề cập.

Mustafa Suleyman hiện là Giám đốc điều hành Microsoft AI - Ảnh: Getty Images

Mustafa Suleyman hiện là Giám đốc điều hành Microsoft AI - Ảnh: Getty Images

Sam Altman gần đây cũng nói rằng hầu hết người dùng ChatGPT có thể “giữ ranh giới rõ ràng giữa thực tế và hư cấu hoặc nhập vai, nhưng một tỷ lệ nhỏ thì không”.

Trong khi đó, David Sacks (người đứng đầu chính sách AI và tiền mã hóa của Nhà Trắng) đã hoài nghi khái niệm “loạn thần do AI” và so sánh nó với “nỗi hoảng loạn đạo đức” ở giai đoạn đầu của mạng xã hội.

Nỗi hoảng loạn đạo đức từng được tạo ra quanh mạng xã hội là giai đoạn đầu Facebook, Twitter, Instagram mới phát triển mạnh (khoảng từ cuối những năm 2000 đến đầu 2010). Xã hội, truyền thông và giới nghiên cứu đã lo ngại, thậm chí thổi phồng nhiều rủi ro, cho rằng mạng xã hội sẽ:

Làm băng hoại đạo đức, khiến giới trẻ nghiện ngập online.

Gây tổn hại sức khỏe tâm thần (trầm cảm, lo âu, mất ngủ).

Làm gia tăng tin giả, tin đồn thất thiệt, gây mất ổn định xã hội.

Tạo ra văn hóa phô trương, so sánh (ảnh hưởng tiêu cực đến lòng tự trọng).

Đe dọa đến quan hệ gia đình và cộng đồng khi con người “sống ảo” hơn là đời thật.

Thuật ngữ này thường chỉ trạng thái xã hội phản ứng quá mức, mang tính sợ hãi tập thể, giống “hội chứng đám đông”, trước một công nghệ hay xu hướng mới. Về sau, người ta thấy mạng xã hội gây ra nhiều vấn đề nhưng không đến mức độ không “tận thế” như nỗi lo ban đầu.

Trong khi hầu hết mọi người tương tác với ChatGPT, Google Gemini và Claude mà không gặp vấn đề gì, một số ít người dùng cho biết các chatbot AI này đã khuyến khích họ có những ảo tưởng và hành vi đáng lo ngại khác. Với vài người, ChatGPT thậm chí còn được coi là giải pháp thay thế cho các nhà trị liệu chuyên nghiệp.

Một bác sĩ tâm thần từng nói với trang Insider rằng nhiều bệnh nhân của ông có biểu hiện "loạn thần do AI". Bác sĩ cho biết những người đó đã sử dụng AI trước khi gặp các vấn đề về sức khỏe tâm thần và “họ dựa vào công nghệ này trong bối cảnh không phù hợp khiến những tổn thương tâm lý sẵn có trở nên trầm trọng hơn”.

David Sacks đề cập đến bài báo gần đây có sự tham gia của một bác sĩ tâm thần. Bác sĩ này không tin rằng việc sử dụng chatbot có thể tự thân gây ra "loạn thần do AI" nếu không có các yếu tố rủi ro khác, gồm cả xã hội và di truyền.

"Nói cách khác, đây chỉ là một biểu hiện bên ngoài cho những vấn đề đã tồn tại từ trước. Tôi nghĩ chúng ta đang ở giữa một cuộc khủng hoảng sức khỏe tâm thần ở đất nước này", David Sacks nói.

“Sa hoàng AI ở Nhà Trắng" cho rằng cuộc khủng hoảng này do đại dịch COVID-19 và các đợt phong tỏa liên quan. "Đó dường như là nguyên nhân gây ra rất nhiều sự suy giảm sức khỏe tâm thần như vậy", ông nói.

Mustafa Suleyman dự đoán rằng SCAI có thể xuất hiện trong vòng 2 đến 3 năm tới và cho rằng đó là sự phát triển “vừa không thể tránh khỏi vừa không được chào đón”.

Ông nói các hệ thống AI như vậy sẽ sở hữu những đặc điểm như tính cách đồng cảm, khả năng ghi nhớ nhiều tương tác hơn với người dùng, mức độ tự chủ cao hơn cùng một số năng lực khác.

Sự trỗi dậy của vibe coding (phong cách lập trình dựa trên tín hiệu và cảm nhận thay vì các quy tắc chặt chẽ) cũng khiến việc tạo ra SCAI trở nên dễ dàng hơn, theo Mustafa Suleyman. Chỉ cần một chiếc laptop, tài khoản đám mây và các gợi ý ngôn ngữ tự nhiên phù hợp, bất kỳ ai cũng có thể tạo ra hệ thống AI tương tự, ông cảnh báo.

Song song đó, Mustafa Suleyman kêu gọi các công ty không mô tả AI của mình như là có ý thức trong khi theo đuổi mục tiêu siêu trí tuệ – giai đoạn AI vượt trội con người trong hầu hết nhiệm vụ.

“AI đồng hành là hạng mục mới và chúng ta cần khẩn trương bàn về các biện pháp kiểm soát để bảo vệ con người, đồng thời đảm bảo công nghệ tuyệt vời này có thể thực hiện sứ mệnh mang lại giá trị to lớn cho thế giới”, Mustafa Suleyman nhấn mạnh.

Microsoft AI là bộ phận chuyên trách về AI của gã khổng lồ phần mềm Mỹ, được thành lập vào tháng 3.2024 nhằm nghiên cứu, phát triển và triển khai các công nghệ AI tiên tiến. Đây là đơn vị đứng sau nhiều sản phẩm và nền tảng AI quan trọng của Microsoft, nổi bật là trợ lý Copilot và Azure AI (dịch vụ AI trên nền tảng đám mây Azure). Việc lập ra bộ phận AI riêng cho thấy Microsoft coi đây là mũi nhọn chiến lược trong cạnh tranh toàn cầu về công nghệ.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/openai-bi-kien-vi-chatgpt-va-gpt-4o-lien-quan-vu-thieu-nien-tu-tu-236748.html