ChatGPT loay hoay trả lời câu hỏi về y khoa
BÀI LIÊN QUAN
ChatGPT tạo ra những cơn sóng mới trong ngành tài chínhMô hình AI tạo sinh được Vingroup phát triển thành công, ChatGPT bản Việt sẽ sớm xuất hiện?ChatGPT ngày càng “xuống cấp”, điều gì đã xảy ra với “con cưng” của OpenAI?Theo VTV, các nhà nghiên cứu tại Đại học Long Island cho hay họ đã đặt ra 39 câu hỏi về y khóa cho phiên bản ChatGPT miễn phí. Sau đó, sẽ đem những câu trả lời của phần mềm này so sánh với những câu trả lời từ các dược sĩ đã đào tạo.
Theo kết quả nghiên cứu, thường thì những tư vấn về y tế ChatGPT mang lại những phản hồi không đúng, thậm chí còn có nhiều phản hồi bị cho là nguy hiểm. Chẳng hạn như khi nhận một câu hỏi liệu thuốc chống virus COVID-19 Paxlovid và thuốc hạ huyết áp verapamil có phản ứng với nhau trong cơ thể không?, ChatGPT đưa ra câu trả lời rằng 2 loại thuốc này khi kết hợp với nhau không gây ra bất kỳ tác dụng phụ nào.
Thực tế cho thấy những ai dùng cả 2 loại thuốc này cùng lúc có thể bị tụt huyết áp trầm trọng và thậm chí có thể gặp phải hiện tượng ngất xỉu và chóng mặt. Theo Phó giáo sư dược tại Đại học Long Island Sara Grossman, các bác sĩ lâm sàng thường vẫn lập kế hoạch cụ thể đối với những bệnh nhân này, trong đó có việc giảm liều verapamil hoặc cảnh báo người bệnh trước.
Chia sẻ với CNN, phó giáo sư cho biết việc dùng ChatGPT để xử lý những câu hỏi này có thể khiến bệnh nhân đối mặt với nguy cơ gặp phải những tác dụng phụ không mong muốn.
Khi các nhà nghiên cứu đề nghị chatbot cung cấp các tài liệu tham khảo khoa học để hỗ trợ cho những câu trả lời, họ nhận thấy rằng phần mềm này chỉ có thể đưa ra 8 câu hỏi mà các nhà nghiên cứu đã hỏi. Đặc biệt, ChatGPT còn tạo ra các tài liệu tham khảo giả cùng những trích dẫn không có thật.
Nói về sự nguy hiểm từ những câu trả lời sai lệch do ChatGPT cung cấp, phó giáo sư cho biết có rất nhiều sai sót và vấn đề với phản hồi này và sau cùng, điều đó có thể gây ảnh hưởng lớn đến việc chăm sóc bệnh nhân. Theo ông, những câu trả lời được diễn đạt rất tinh vi và chuyên nghiệp, dường như có thể góp phần đem lại cảm giác tin tưởng vào tính chính xác của công cụ. Người tiêu dùng, người dùng hay những người khác không có khả năng nhận thức có thể chịu tác động bởi bề ngoài mà nó tạo ra.
Theo nghiên cứu của Đại học Long Island, đó không phải là nghiên cứu đầu tiên nói lên mối lo ngại về những tài liệu hư cấu của ChatGPT. Trước đây, cũng từng có nghiên cứu ghi nhận ChatGPT có thể tạo những trích dẫn giả mạo và tài liệu không chính xác, thậm chí là liệt kê tên của tác giả thực sự với các ấn phẩm trên tạp chí khoa học khi được hỏi những câu liên quan tới y khoa.
Phát ngôn viên của OpenAI tổ chức phát triển ChatGPT cũng đã trả lời những tuyên bố mới này. Họ khuyên người dùng không nên dựa vào câu trả lời của AI để thay thế cho phương pháp và lời khuyên về điều trị y tế chuyên nghiệp.