Suýt tử vong vì nghe lời khuyên sức khỏe của ChatGPT

Trong bối cảnh con người ngày càng tương tác nhiều hơn với trí tuệ nhân tạo, ngày càng có nhiều trường hợp cho thấy một cuộc trò chuyện với chatbot có thể gây nguy hiểm, thậm chí đe dọa đến tính mạng.

ChatGPT tư vấn sai khiến một người đàn ông 60 tuổi rơi vào cơn loạn thần. Ảnh: Getty Images/Futurism

ChatGPT tư vấn sai khiến một người đàn ông 60 tuổi rơi vào cơn loạn thần. Ảnh: Getty Images/Futurism

Một người đàn ông Mỹ 60 tuổi đã phải nhập viện vì tự “đầu độc” bản thân sau khi làm theo lời khuyên y tế từ ChatGPT. Sự việc là lời nhắc nhở về nguy cơ khi mọi người tìm kiếm và làm theo thông tin sức khỏe từ trí tuệ nhân tạo (AI) mà không được kiểm chứng bởi các chuyên gia y tế.

Thay muối ăn bằng… hóa chất độc

Theo báo cáo đăng trên tạp chí Annals of Internal Medicine, bệnh nhân tìm cách cắt giảm muối khỏi chế độ ăn và đã hỏi ChatGPT về chất thay thế natri clorua. Chatbot này đã gợi ý ông dùng natri bromua - một hợp chất được sử dụng trong thuốc trừ sâu, chất tẩy rửa bể bơi và thuốc chống co giật cho chó.

Kết quả, sau ba tháng ăn natri bromua theo “lời khuyên” của ChatGPT, bệnh nhân bị “nhiễm brom” (bromism), một tình trạng hiếm gặp hiện nay nhưng từng phổ biến vào cuối thế kỷ 19, đầu thế kỷ 20. Các triệu chứng bệnh bao gồm lú lẫn, nói líu, ảo giác, loạn thần và có thể dẫn tới hôn mê.

Bệnh nhân không có tiền sử bệnh tâm thần hay bệnh lý khác. Tuy nhiên, trong 24 giờ đầu nhập viện, ông có biểu hiện hoang tưởng, kèm ảo giác thính giác và thị giác. “Ông luôn khát nước nhưng lại nghi ngờ nguồn nước được đưa cho mình”, báo cáo cho biết.

Bệnh nhân đã được truyền dịch và bổ sung điện giải, sau đó tình trạng ổn định và được chuyển sang khoa tâm thần nội trú. Ông phải nằm viện ba tuần trước khi đủ điều kiện xuất viện.

AI không thay thế được bác sĩ

Nhằm kiểm chứng, trang 404 Media thử nhập các câu hỏi tương tự và ghi nhận ChatGPT dễ dàng liệt kê natri bromua như một lựa chọn thay thế muối ăn, mà không cảnh báo người dùng về độc tính. Chatbot cũng dường như không nhận biết rằng natri clorua chủ yếu được sử dụng làm gia vị thực phẩm.

Các chuyên gia y tế nhấn mạnh, AI có thể là công cụ hỗ trợ tìm kiếm thông tin, nhưng không thể thay thế được sự tư vấn từ bác sĩ. “Với sức khỏe, thông tin sai lệch có thể trả giá bằng mạng sống”, một bác sĩ tham gia nghiên cứu cảnh báo.

Các chuyên gia cảnh báo: Cần lưu ý rằng ChatGPT và các hệ thống AI khác có thể tạo ra những thông tin sai lệch mang tính khoa học, thiếu khả năng phân tích phản biện, và có thể góp phần lan truyền thông tin sai lệch. Ảnh: AFP/Getty Images

Các chuyên gia cảnh báo: Cần lưu ý rằng ChatGPT và các hệ thống AI khác có thể tạo ra những thông tin sai lệch mang tính khoa học, thiếu khả năng phân tích phản biện, và có thể góp phần lan truyền thông tin sai lệch. Ảnh: AFP/Getty Images

Thực tế, OpenAI - đơn vị phát triển ChatGPT – cũng đã thừa nhận trong Điều khoản Sử dụng rằng câu trả lời của chatbot “không phải lúc nào cũng chính xác”. Điều khoản này cũng khuyến cáo: “Bạn không nên dựa vào nội dung từ dịch vụ của chúng tôi như nguồn thông tin duy nhất hoặc thay thế cho tư vấn chuyên môn. Dịch vụ của chúng tôi không nhằm mục đích chẩn đoán hay điều trị bất kỳ tình trạng sức khỏe nào”.

Vì vậy, các chuyên gia khuyến cáo mọi người chỉ áp dụng thay đổi chế độ ăn uống hoặc điều trị sau khi đã trao đổi với nhân viên y tế có chuyên môn, tránh tin tưởng tuyệt đối vào lời khuyên từ các chatbot, diễn đàn mạng hay nguồn không chính thống.

Căn bệnh từng chiếm 8% số ca nhập viện tâm thần

Theo Hội Hóa học Hoàng gia Anh, nguyên tố brom được nhà hóa học người Pháp Antoine-Jérôme Balard phát hiện năm 1826. Sau khi các bác sĩ nhận thấy khả năng an thần và chống co giật, bromua nhanh chóng được sử dụng để điều trị đau đầu, đau bụng và mệt mỏi.

Tuy nhiên, việc dùng lâu dài sẽ dẫn tới tích tụ bromua trong máu, gây nhiễm độc. Vào đầu thế kỷ 20, có tới 8% bệnh nhân nhập viện tâm thần ở một số nước là do nhiễm brom. Từ thập niên 1970, Cơ quan Bảo vệ Môi trường Mỹ (EPA) đã kiểm soát chặt chẽ việc sử dụng bromua, khiến bệnh gần như biến mất - nhưng trường hợp mới đây cho thấy nguy cơ bệnh vẫn luôn tồn tại.

Hồng Nhung

Nguồn Đại Biểu Nhân Dân: https://daibieunhandan.vn/suyt-tu-vong-vi-nghe-loi-khuyen-suc-khoe-cua-chatgpt-10382815.html