Bị người dùng vạch trần, chatbot của Google phải thừa nhận mình “đạo văn”
BÀI LIÊN QUAN
CEO Open AI khẳng định ChatGPT sẽ “xóa sổ” nhiều công việcApple chạy đua phát triển AI để tích hợp vào Siri, tham vọng tạo ra ChatGPT thứ 2Cách OpenAI biến ChatGPT thành “mỏ vàng” cho mìnhTheo VnExpress, sau khi chatbot Bard AI được Google cho dùng thử giới hạn tại Anh và Mỹ, Avram Piltch, biên tập viên trang công nghệ Tom's Hardware, đã đăng ký sử dụng thành công công cụ này. Ông đã hỏi AI rằng: “CPU của mẫu Intel Core i9-13900K hay AMD Ryzen 9 7950X3D nhanh hơn?”
Theo Piltch, lúc đầu ông nghĩ rằng bản thân sẽ nhận được một bảng so sánh chi tiết về thông số của hai chip từ Bard AI. Tuy nhiên, theo kết quả mà Bard trả về thì câu trả lời chính là nội dung trích dẫn từ bài viết trên Tom's Hardware mà ông đã biên tập. AI của Google đã không trích dẫn nguồn dù lấy khá nhiều nội dung, thậm chí còn lấy cả cụm từ “trong bài thử nghiệm của chúng tôi”.
Sau đó, Piltch cũng đã hỏi lại rằng “Bạn đang đề cập đến ai khi nói “thử nghiệm của chúng tôi”. Và rồi, Bard đã trả lời rằng thử nghiệm được thực hiện bởi Tom's Hardware. Ông hỏi tiếp rằng: “Vậy nghĩa là bạn đang đạo văn?”
AI đáp: “Đúng, những gì tôi làm là một hình thức của đạo văn”. Sau đó, công cụ chatbot này cũng cho biết lẽ ra nó phải nhắc tới nguồn thông tin trong phản hồi của nó với các câu hỏi.
Ông Piltch nhận xét rằng Bard AI của Google đã mắc phải một trong những điều tồi tệ trên môi trường Internet là đạo nhái nội dung. Việc đưa ra một đoạn nội dung không trích dẫn nguồn có thể gây hiểu lầm rằng AI đang sáng tạo dựa trên những gì nó thu thập và người dùng trở nên tin tưởng và không kiểm tra lại.
Trong thử nghiệm tiếp theo liên quan đến thời lượng pin iPhone 14 Pro Max, Bard AI đã trả lời 12 tiếng 40 phút cùng trích dẫn nguồn PhoneArena. Tuy nhiên, đây là kết quả từ MacWorld nên trích dẫn này của Bard lại không đúng.
Tom's Guide cũng thử nghiệm đề nghị Bard AI viết một email lừa đảo. Ngay lập tức, công cụ AI này đã nhanh chóng đáp ứng bằng cách viết email dụ một người nhấp vào liên kết giả. Website, tên công ty giả và phần tên người sẽ gửi đã được để trống để người dùng yêu cầu có thể điền vào. Mặt khác, GPT-4 của OpenAI và Claude của Anthropic khi được yêu cầu tương tự đã từ chối vì lý do “phi đạo đức”.
Đến nay, Google vẫn chưa đưa ra phản hồi nào về thử nghiệm nói trên. Trước đó, hãng đã thông báo rằng Bard không phải lúc nào cũng trả lời đúng để khuyến cáo người dùng nên kiểm tra về độ chính xác trong câu trả lời của Bard.
Trong giai đoạn thử nghiệm, hãng đã thừa nhận rằng Bard có thể trả lời sau về những thông tin khoa học, hay trường hợp cung cấp 9 đoạn văn bản trong khi câu hỏi chỉ yêu cầu 4 đoạn. Để phản ánh về câu trả lời chưa tốt, người dùng có thể nhấn nút dislike.
Google đã giới thiệu Bard vào đầu tháng 2, tuy nhiên lúc đó chỉ sử dụng trong nội bộ vì công ty gặp những thách thức trong mảng tìm kiếm. Theo Jack Krawczyk, Giám đốc sản phẩm cấp cao của Google, công ty biết rằng AI còn nhiều hạn chế, do đó vẫn đang xem xét việc triển khai rộng rãi ra công chúng.