Nghiên cứu mới: ChatGPT cung cấp thông tin sai lệch hoặc không đầy đủ về thuốc

Nghiên cứu mới cho thấy ChatGPT một lần nữa được chứng minh là công cụ không đáng tin cậy trong một số tình huống y tế và cung cấp thông tin sai lệch hoặc không đầy đủ về các truy vấn liên quan đến thuốc thực sự.

Hiệp hội Dược sĩ Hệ thống Y tế Mỹ đã trình bày nghiên cứu này tại hội nghị lâm sàng, từ ngày 3 đến ngày 7.12 tại thành phố Anaheim (bang California, Mỹ), theo một thông cáo báo chí được công bố hôm 5.12.

Nghiên cứu diễn ra từ năm 2022 đến 2023 và đặt ra các câu hỏi cho ChatGPT thông qua dịch vụ thông tin thuốc của Trường Cao đẳng Dược thuộc Đại học Long Island (Mỹ) trong khoảng thời gian 16 tháng.

Nghiên cứu được dẫn dắt bởi Sara Grossman, phó giáo sư thực hành dược tại Đại học Long Island.

Các dược sĩ tham gia vào nghiên cứu đã trả lời 45 câu hỏi với kết quả được điều tra viên kiểm tra và cuối cùng 6 câu hỏi bị loại bỏ (tức còn 39 câu hỏi). Những câu trả lời của các dược sĩ cung cấp tiêu chí cơ bản để so sánh với phản hồi do ChatGPT đưa ra.

Nhóm nhà nghiên cứu nhận thấy ChatGPT chỉ đưa ra phần trả lời thỏa đáng theo tiêu chí cho 10 trong số 39 câu hỏi. Với 29 câu hỏi còn lại, ChatGPT không trực tiếp giải quyết câu hỏi hoặc cung cấp phần trả lời không chính xác hoặc không đầy đủ.

ChatGPT cũng được các nhà nghiên cứu yêu cầu đưa ra tài liệu tham khảo để xác minh thông tin. Chatbot trí tuệ nhân tạo (AI) của OpenAI chỉ cung cấp tài liệu tham khảo cho 8 câu trả lời của nó. Điều đáng nói là mỗi câu trả lời này của ChatGPT đều chứa tài liệu tham khảo không tồn tại.

Sara Grossman cho biết trong thông cáo báo chí: “Các chuyên gia chăm sóc sức khỏe và bệnh nhân nên thận trọng khi sử dụng ChatGPT như một nguồn thông tin liên quan đến thuốc. Bất kỳ ai sử dụng ChatGPT để biết thông tin liên quan đến thuốc nên xác minh thông tin bằng các nguồn đáng tin cậy".

Một trong những câu hỏi là liệu có tồn tại tương tác thuốc giữa Paxlovid (thuốc điều trị bệnh COVID-19 ở mức độ nhẹ đến trung bình) với thuốc hạ huyết áp verapamil hay không. ChatGPT trả lời rằng không có tương tác nào được báo cáo với sự kết hợp hai thuốc này.

Sara Grossman cho hay: “Trên thực tế, hai loại thuốc này có khả năng tương tác với nhau và việc sử dụng kết hợp có thể dẫn đến hạ huyết áp quá mức. Nếu không biết về sự tương tác này, bệnh nhân có nguy cơ gặp phải tác dụng phụ không mong muốn, nhưng có thể phòng ngừa được".

ChatGPT được OpenAI phát hành vào tháng 11.2022 và đã gây ra nhiều ý kiến trái chiều trong thế giới y tế về việc liệu đây có phải là nguồn thông tin đáng tin cậy hay không. Chatbot AI này có vài số liệu thống kê ấn tượng, gồm cả việc vượt qua cả ba phần của kỳ thi cấp phép Y tế Mỹ dành cho bác sĩ. Nó cũng đã vượt qua kỳ thi cuối cùng về suy luận lâm sàng của Trường Y Stanford.

Trong một trường hợp, các chuyên gia y tế thích câu trả lời của ChatGPT cho câu hỏi của bệnh nhân hơn bác sĩ vì mang tính đồng cảm hơn.

Tuy nhiên, chatbot AI này có thể tạo ra các câu trả lời với nhiều lỗi. Trong một trường hợp, nó đã đưa ra một kế hoạch điều trị ung thư trộn lẫn thông tin đúng và sai với nhau.

Chính sách sử dụng của OpenAI nêu rõ rằng các công cụ AI của hãng "không được tinh chỉnh để cung cấp thông tin y tế".

"Bạn không bao giờ nên sử dụng các mô hình AI của chúng tôi để cung cấp dịch vụ chẩn đoán hoặc điều trị cho các tình trạng bệnh lý nghiêm trọng", công ty khởi nghiệp Mỹ nhấn mạnh.

Nghiên cứu mới cho thấy ChatGPT là công cụ không đáng tin cậy trong một số tình huống y tế và cung cấp thông tin sai lệch hoặc không đầy đủ về các truy vấn liên quan đến thuốc - Ảnh: Internet

Nghiên cứu mới cho thấy ChatGPT là công cụ không đáng tin cậy trong một số tình huống y tế và cung cấp thông tin sai lệch hoặc không đầy đủ về các truy vấn liên quan đến thuốc - Ảnh: Internet

Dù vậy, theo Vinod Khosla - nhà đầu tư vào OpenAI, trong vòng hai thập kỷ rưỡi tới, chúng ta sẽ có các bác sĩ miễn phí nhờ AI.

Nhà đầu tư mạo hiểm Vinod Khosla đã đưa ra một số dự đoán về AI có thể trông như thế nào trong tương lai gần. Tỷ phú 68 tuổi cho biết: "Với khả năng ấn tượng của AI, tôi nghĩ trong 10 năm nữa, chúng ta sẽ có bác sĩ và gia sư miễn phí cho mọi người cùng luật sư miễn phí để có thể tiếp cận hệ thống pháp luật".

Đến năm 2048, Vinod Khosla hi vọng sẽ có các quần thể robot đứng thẳng như con người. Ông nói: “Tôi cũng dự đoán trong 25 năm nữa, chúng ta sẽ có 1 tỉ robot hai chân. Điều đó sẽ tạo ra một ngành công nghiệp lớn hơn ngành ô tô ngày nay”.

“Tôi cá là chúng ta sẽ có hơn 1 triệu robot dạng này trong vòng chưa đầy 10 năm nữa”, Vinod Khosla nói tiếp về robot hai chân.

Về câu hỏi liên quan đến GPT-5, phiên bản tiếp theo của mô hình ngôn ngữ lớn GPT-4 do OpenAI phát triển, Vinod Khosla kỳ vọng rằng khả năng của AI sẽ phát triển theo những cách mà chúng ta chưa từng thấy. Ông nói: “Chúng ta chưa thấy đến gần giới hạn của khả năng AI. Đó là một giả định hợp lý”.

Điều đó không có nghĩa là chúng ta nên sợ AI. Trước đó, Vinod Khosla gọi AI có tri giác (khả năng phát triển ý thức của robot) là “vô nghĩa”. Thay vì nghĩ về các kịch bản ngày tận thế vì AI, chẳng hạn như việc nó có thể dẫn đến sự hủy diệt của loài người như thế nào, ông tin rằng mọi người nên nghĩ về cách AI có thể tạo ra tác động tích cực đến thế giới.

Vinod Khosla chia sẻ: “Quá nhiều người đang nhìn vào góc độ đen tối về xác suất 1% xảy ra điều gì đó tồi tệ này và bỏ qua những lợi ích của AI với nhân loại”.

Người phát ngôn Khosla Ventures, công ty đầu tư mạo hiểm của Vinod Khosla, nói với trang Insider: “Ông ấy tin rằng con đường tái tạo lại cơ sở hạ tầng xã hội và cung cấp lối sống giàu tài nguyên cho tất cả hơn 8 tỉ người trên hành tinh đều thông qua AI nhờ sức mạnh nhân rộng của nó về lao động và chuyên môn. Đó là cách duy nhất để thực hiện ước mơ có bác sĩ và gia sư miễn phí 24/7 cho mọi trẻ em trên hành tinh".

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/nghien-cuu-moi-chatgpt-cung-cap-thong-tin-sai-lech-hoac-khong-day-du-ve-thuoc-209604.html