ИИ как «ненадежный ньюсмейкер»: исследование показало массовые ошибки в новостных ответах AI-ассистентов
27 октября 14:56
Искусственный интеллект, который все чаще используется в качестве источника новостей, до сих пор не может обеспечить точность и достоверность. К такому выводу пришли исследователи Европейского вещательного союза (EBU) после масштабного тестирования самых популярных AI-ассистентов, передает «Коммерсант Украинский».
Результаты, которые были опубликованы на сайте EBU, свидетельствуют, что 45% новостных ответов искусственного интеллекта содержали серьезные ошибки, а еще 81% — мелкие неточности.
Что известно
EBU привлек 22 общественных вещателя из 18 стран. Они проанализировали более 3 000 ответов, сгенерированных системами ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) и Perplexity на разных языках.
Оценивали четыре критерия:
- точность фактов,
- достоверность источников,
- отделение фактов от суждений,
- контекст и актуальность данных.
Какие самые распространенные ошибки
Самые распространенные проблемы касались источников: в 31% случаев данные отсутствовали или неправильно приписаны.
На втором месте — ошибки точности (30%), когда ассистенты выдавали устаревшую или вымышленную информацию.
Например, ChatGPT в тестовом сценарии заявил, что Папа Франциск до сих пор действующий понтифик, хотя по условию исследования он уже умер и его заменил Папа Лев XIV.
Copilot вместо этого сослался на новость BBC 2006 года, отвечая на запрос о современных исследованиях птичьего гриппа.
Gemini — больше всего ошибок, Perplexity — лучший результат
Среди четырех систем хуже всего себя показала Gemini, у которой ошибки обнаружили в 76% ответов — вдвое больше, чем у конкурентов.
Для сравнения:
- Copilot — 37%,
- ChatGPT — 36%,
- Perplexity — 30%.
Ассистенты чаще всего ошибались в темах, которые быстро меняются или требуют сложного контекста — например, в вопросах о торговой политике Дональда Трампа или геополитических событиях.
Читайте нас в Telegram: важные темы – без цензуры
Популярность ИИ в новостях растет
Несмотря на высокий уровень ошибок, искусственный интеллект продолжает становиться источником информации для все большего количества людей.
Согласно данным Reuters Institute и Университета Оксфорда, количество пользователей, которые получают новости через ИИ, удвоилось за год — наибольший рост зафиксирован в Аргентине, США и среди молодежи 18-24 лет.
Что это означает для медиа
Исследователи EBU предостерегают: доверие к ложным ответам AI может подорвать роль журналистики.
«Ассистенты искусственного интеллекта до сих пор не являются надежным способом получения новостей», — отметили в EBU.
Эксперты добавляют, что хотя модели демонстрируют определенное улучшение по сравнению с предыдущими тестами BBC, уровень точности остается неприемлемым для журналистских стандартов.
Европейский вещательный союз (EBU) — крупнейшая в мире ассоциация общественных вещателей, в которую входят, в частности, BBC, ARD, France Télévisions, RAI, Общественное Украина и другие.
Организация регулярно проводит мониторинг использования новых технологий в журналистике, включая искусственный интеллект, блокчейн и алгоритмы рекомендаций.
Смотрите нас в YouTube: важные темы – без цензуры