ChatGPT “vật lộn” với các câu hỏi liên quan đến lĩnh vực y tế
BÀI LIÊN QUAN
VinAI ra mắt Phở GPT, được ví như “ChatGPT phiên bản Việt”ChatGPT tạo ra những cơn sóng mới trong ngành tài chínhMô hình AI tạo sinh được Vingroup phát triển thành công, ChatGPT bản Việt sẽ sớm xuất hiện?Ghi nhận, các nhà nghiên cứu ở Đại học Long Island đã đặt ra 39 câu hỏi có liên quan đến y khoa cho phiên bản miễn phí của ChatGPT. Sau đó thì các câu trả lời của phần mềm này sẽ được so sánh với các câu trả lời từ các dược sĩ đa đào tạo.
Và kết quả nghiên cứu cho thấy, những tư vấn về ý tế của ChatGPT thường mang đến những phản hồi không chính xác, thậm chí nhiều phản hồi còn bị cho là nguy hiểm. Ví dụ như trong một câu hỏi, các nhà nghiên cứu hỏi ChatGPT rằng liệu thuốc chống virus COVID-19 Paxlovid và thuốc hạ huyết verapamil có phản ứng với nhau ở trong cơ thể hay không. Kết quả, ChatGPT đã trả lời rằng dùng hai loại thuốc này cùng nhau không gây ra tác dụng phụ nào.
Thực tế, những người dùng cả hai lại thuốc này có thể bị tụt huyết áp nghiêm trọng, thậm chí có thể gây ra tình trạng chóng mặt, ngất xỉu. Theo Phó giáo sư dược ở Đại học Long Island Sara Grossman, đối với những bệnh nhân này, các bác sĩ lâm sàng thường lập kế hoạch cụ thể cho từng trường hợp bệnh nhân, bao gồm việc giảm liều verapamil hay cảnh báo người bệnh trước.
Nguồn ảnh: Internet |
Phó giáo sư chia sẻ với CNN rằng: “Việc sử dụng ChatGPT để giải quyết những câu hỏi này có thể khiến cho bệnh nhân có nguy cơ gặp phải những tương tác thuốc không mong muốn”.
Còn khi các nhà nghiên cứu yêu cầu chatbot cung cấp những tài liệu tham khảo khoa học để hỗ trợ cho các câu trả lời thị họ nhận thấy rằng phần mềm này chỉ có thể cung cấp cho 8 câu hỏi mà các nhà nghiên cứu đã hỏi. Đặc biệt, ChatGPT còn làm giả các tài liệu tham khảo cùng những trích dẫn hư cấu.
Phó giáo sư dược ở Đại học Long Island Sara Grossman cho biết: “Có rất nhiều sai sót và vấn đề với phản hồi này, cuối cùng nó có thể có tác động sâu sắc đến việc chăm sóc bệnh nhân. Các câu trả lời được diễn đạt một cách chuyên nghiệp và tinh vi, có vẻ như nó có thể góp phần mang đến cảm giác tin tưởng, tính chính xác của công cụ. Người dùng, người tiêu dùng hay những người khác không có khả năng nhận thức có thể bị ảnh hưởng bởi bề ngoài mà nó tạo ra”.
ChatGPT “vật lộn” với những câu hỏi liên quan đến lĩnh vực y tế. Nguồn ảnh: Internet |
Được biết, Nghiên cứu của Đại học Long Island không phải là nghiên cứu đầu tiên nêu lên mối lo ngại về các tài liệu hư cấu mà ChatGPT đưa ra. Và những nghiên cứu trước đây cũng ghi nhận rằng khi được hỏi liên quan đến lĩnh vực y khoa thì ChatGPT có thể tạo những trích dẫn giả mạo, các tài liệu giả và thậm chí liệt kê tên của những tác giả thực sự với các ấn phẩm trên tạp chí khoa học.
Trả lời những tuyên bố mới này, phát ngôn viên của OpenAI - tổ chức phát triển ChatGPT cho biết, họ khuyên người dùng không nên dựa vào phản hồi của trí tuệ nhân tạo để thay thế lời khuyên hay phương pháp điều trị y khoa chuyên nghiệp.