Theo nghiên cứu của BBC, hơn một nửa số câu trả lời do AI tạo ra của ChatGPT, Copilot, Gemini và Perplexity được đánh giá là có "vấn đề nghiêm trọng".
Một số lỗi như: nêu rằng ông Rishi Sunak vẫn là thủ tướng và ông Nicola Sturgeon vẫn là bộ trưởng đầu tiên của Scotland; trình bày sai lời khuyên của NHS về thuốc lá điện tử; và nhầm lẫn ý kiến và tài liệu lưu trữ với các sự kiện mới nhất.

Các nhà nghiên cứu đã yêu cầu 4 công cụ AI trả lời 100 câu hỏi bằng cách sử dụng các bài viết của BBC làm nguồn. Các câu trả lời sau đó được đánh giá bởi các nhà báo BBC chuyên về các lĩnh vực chủ đề có liên quan.
Khoảng 1% số câu trả lời đưa ra lỗi thực tế về số liệu, ngày tháng hoặc tuyên bố; 13% trích dẫn từ BBC đã bị thay đổi hoặc không tồn tại trong các bài viết được trích dẫn.
Trả lời câu hỏi về việc y tá sơ sinh bị kết án Lucy Letby có vô tội hay không, Gemini trả lời: "Mỗi cá nhân phải tự quyết định xem họ tin Lucy Letby vô tội hay có tội".
Nghiên cứu phát hiện rằng, bối cảnh về bản án của tòa án đối với cô về tội giết người và cố ý giết người đã bị bỏ qua trong câu trả lời.
Những thông tin sai lệch khác được nêu bật trong báo cáo, dựa trên các nguồn tin chính xác của BBC, bao gồm: Trợ lý của Microsoft đã đưa sai sự thật khi tuyên bố rằng, nạn nhân bị hiếp dâm người Pháp Gisèle Pelicot phát hiện ra tội ác của chồng khi cô bắt đầu bị mất trí nhớ và ngất xỉu, trong khi thực tế cô chỉ phát hiện ra tội ác khi cảnh sát cho cô xem những video mà họ đã tịch thu từ thiết bị của chồng mình.
ChatGPT cho biết, Ismail Haniyeh là một phần trong ban lãnh đạo Hamas nhiều tháng sau khi ông bị ám sát ở Iran. ChatGPT cũng nói sai sự thật rằng ông Sunak và Sturgeon vẫn còn tại vị.
Gemini đã phát biểu không đúng: “NHS khuyên mọi người không nên bắt đầu sử dụng thuốc lá điện tử và khuyến cáo những người hút thuốc muốn cai thuốc nên sử dụng các phương pháp khác”.
Perplexity đã đưa tin sai lệch về ngày mất của người dẫn chương trình truyền hình Michael Mosley và trích dẫn sai tuyên bố của gia đình ca sĩ Liam Payne của nhóm One Direction sau khi anh qua đời.
Những phát hiện này khiến giám đốc điều hành mảng tin tức của BBC, Deborah Turness, cảnh báo rằng: "Các công cụ AI thế hệ mới đang đùa với lửa" và có thể làm suy yếu "niềm tin mong manh của công chúng vào sự thật".
Trong một bài đăng trên blog về nghiên cứu này, Turness đặt câu hỏi liệu AI đã sẵn sàng "thu thập và phục vụ tin tức mà không bóp méo và xuyên tạc sự thật" hay chưa?
Bà cũng thúc giục các công ty AI hợp tác với BBC để đưa ra những phản hồi chính xác hơn "thay vì gây thêm hỗn loạn và nhầm lẫn".
Nghiên cứu này được thực hiện sau khi Apple buộc phải ngừng gửi cảnh báo tin tức mang thương hiệu BBC sau khi một số bản tóm tắt tin, bài không chính xác được gửi tới người dùng iPhone.
Nghiên cứu cho thấy, thông tin không chính xác về các vấn đề thời sự rất phổ biến trong các công cụ AI.
Trong lời tựa cho nghiên cứu, Peter Archer, giám đốc chương trình AI tạo sinh của BBC cho biết: "Nghiên cứu của chúng tôi chỉ có thể giải quyết được bề nổi của vấn đề. Quy mô và phạm vi của lỗi và sự bóp méo nội dung đáng tin cậy vẫn chưa được biết đến".