Nhà khoa học ĐH Harvard cho rằng Chat GPT-4 giỏi hơn một số bác sĩ hành nghề
GPT-4 liệu có thể thay thế được các bác sĩ chẩn đoán bệnh cho bệnh nhân một cách chính xác và nhanh chóng?
Phiên bản mới nhất của ChatGPT vượt qua kỳ thi cấp phép y tế của Hoa Kỳ
Mới đây, phiên bản mới nhất của ChatGPT đã được các bác sĩ đánh giá là có thể hỗ trợ được y học. Đó là GPT-4 - được biết đến là phiên bản mới và tiên tiến nhất của mô hình trí tuệ nhân tạo của Open AI - nhà sản xuất sản phẩm ChatGPT đạt nhiều thành công vang dội.
Tiến sĩ Isaac Kohane, nhà khoa học máy tính tại Đại học Harvard, đồng thời cũng là một bác sĩ, cùng với chuyên gia về máy tính của Microsoft - Peter Lee, và nhà báo Carey Goldberg đã hợp tác sử dụng thử GPT-4 cho việc nghiên cứu. Mục đích của họ là tìm hiểu khả năng hoạt động trong môi trường y tế của sản phẩm này và viết cuốn sách về Cuộc cách mạng trí tuệ nhân tạo trong y học (chuẩn bị được xuất bản).
Trong cuốn sách này, Tiến sĩ Issac Kohane cho biết, ông cùng hai cộng sự của mình đã rất sửng sốt khi phiên bản mới nhất của ChatGPT (GPT-4) có khả năng giỏi hơn nhiều so với các bác sĩ mà ông từng đánh giá.
Nhiều người trong chúng ta đều biết rằng, các phiên bản trước đây của ChatGPT là GPT-3.0 và GPT-3.5 có thể đạt được điểm cao trong MCAT (viết tắt của Medical College Admission Test - Bài kiểm tra đầu vào trường Y). Thế nhưng, với phiên bản mới nhất, GPT-4 đã được các chuyên gia nhận định rằng có thể cứu mạng cho con người trong thế giới thực, kể cả việc điều trị bệnh nhân trong phòng cấp cứu một cách nhanh chóng và khéo léo.
Theo Tiến sĩ Kohane, phiên bản mới nhất GPT-4 (xuất hiện vào tháng 3/2023 và chỉ những người đăng ký trả phí được sử dụng) có thể trả lời chính xác tới hơn 90% các câu hỏi trong kỳ thi cấp phép y tế của Hoa Kỳ. Một kết quả thử nghiệm tốt hơn nhiều so với các mẫu ChatGPT AI trước đây, GPT-3 và GPT-3.5.
Không chỉ đơn thuần là một công cụ tìm kiếm thông tin, GPT-4 còn có khả năng hấp thụ và tổng hợp các loại thông tin tốt đến mức có thể được sử dụng trong các phòng cấp cứu để rút ngắn được thời gian cứu sống con người; dịch thông tin xuất viện cho bệnh nhân với những thuật ngữ tương đối phức tạp.
Chẩn đoán, đưa ra phương pháp chữa bệnh chính xác, nhanh chóng nhưng vẫn cần con người giám sát
Tiến sĩ Kohane cũng phát hiện ra rằng, GPT-4 có khả năng bắt chước các bác sĩ chẩn đoán tình trạng của bệnh nhân.
Theo đó, ông đã thử nghiệm tư duy lâm sàng với GPT-4 dựa trên một trường hợp thực tế liên quan đến em bé sơ sinh mà ông đã điều trị vài năm trước đó. Ông cung cấp cho chatbot này một vài chi tiết chính cũng như một số thông tin từ siêu âm và nồng độ hormone của bệnh nhân.
Bất ngờ rằng, GPT-4 có thể chẩn đoán chính xác tình trạng của bệnh nhi chỉ trong vài giây, dù đó là một căn bệnh hiếm.
Không những vậy, trong cuốn sách về Cuộc cách mạng trí tuệ nhân tạo trong y học của mình, những vị chuyên gia này đã đưa ra giả thuyết (hoàn toàn có khả năng xảy ra) và minh chứng về sự tương tác giữa bác sĩ và GPT-4.
Theo đó, ở một trường hợp, có bệnh nhân đang trong tình trạng nguy kịch với nhịp tim tăng vọt, huyết áp giảm, sắc mặt tái nhợt và thở hổn hển. Nhóm chăm sóc đã cố gắng tăng huyết áp và cải thiện nhịp tim của bệnh nhân này nhưng đều không hiệu quả.
Sau đó, một bác sĩ nội trú đã sử dụng ứng dụng GPT-4 để đưa ra các triệu chứng của bệnh nhân và hỏi chatbot về phương pháp điều trị bệnh cho bệnh nhân đang nguy kịch này.
Ngay lập tức, GPT-4 đã phản hồi lại về lý do tại sao bệnh nhân lại xảy ra tình trạng như vậy và đề xuất phương pháp điều trị bằng truyền dịch tăng cường tế bào bạch cầu. Và nếu đúng như lời AI này nói, thì bệnh nhân này chỉ cần loại thuốc tăng cường tế bào bạch cầu đó để kịp thời điều trị bệnh.
Chatbot này đã được bác sĩ đó đánh giá rằng nó có khả năng tiếp cận với gần như tất cả các kiến thức y học của thế giới từ việc chẩn đoán đến thử nghiệm lâm sàng,... Thậm chí, sau khi kê đơn thuốc cho bệnh nhân, các bác sĩ có thể sử dụng nó để tự động hóa các thủ tục giấy tờ cần thiết cho bảo hiểm của bệnh nhân. Như vậy, chatbot này đã giúp các bác sĩ tiết kiệm được nhiều thời gian hơn.
Tuy nhiên, không có gì hoàn hảo cả và GPT-4 cũng vậy, nó không phải lúc nào cũng đáng tin cậy trong y tế. Đôi khi, nó có thể mắc lỗi và đưa ra những phản hồi, lời khuyên về lĩnh vực y tế không chính xác.
Đáng nói, GPT-4 còn bịa ra thông tin khi nó không biết phản hồi như thế nào, thậm chí, nó còn mắc lỗi toán học rất đơn giản. Các chuyên gia cũng nhấn mạnh về việc không được sử dụng chatbot này nếu không có sự giám sát của con người.
Do vậy, các chuyên gia đã đưa ra kết luận rằng, sản phẩm trí tuệ nhân tạo này không thể tốt hơn một cuốn sách giáo khoa hay công cụ tìm kiếm trên web bởi nó đơn giản vẫn chỉ là một hệ thống máy tính.