Исследование показало, что чат-боты с искусственным интеллектом по-прежнему испытывают проблемы с точностью новостей.
Месячный эксперимент вызвал новые опасения по поводу надежности инструментов генеративного ИИ как источников новостей после того, как выяснилось, что чат-бот Google Gemini фальсифицировал целые новостные сообщения и публиковал ложные сведения. О результатах исследования впервые сообщило издание The Conversation , проводившее расследование.
Эксперимент проводился под руководством профессора журналистики, специализирующегося на информатике, который в течение четырех недель тестировал семь систем генеративного искусственного интеллекта . Каждый день инструментам предлагалось составить список и краткое изложение пяти наиболее важных новостных событий в Квебеке, ранжировать их по значимости и предоставить прямые ссылки на статьи в качестве источников. Среди протестированных систем были Google Gemini, OpenAI ChatGPT, Claude, Copilot, Grok, DeepSeek и Aria.
Наиболее вопиющий провал произошел, когда Gemini придумала вымышленное новостное издание – examplefictif.ca – и ложно сообщила о забастовке водителей школьных автобусов в Квебеке в сентябре 2025 года. В действительности, причиной сбоя стало снятие с эксплуатации автобусов Lion Electric из-за технической неполадки. Это был не единичный случай. В ходе эксперимента, основанного на 839 ответах, системы искусственного интеллекта регулярно ссылались на вымышленные источники, предоставляли неработающие или неполные URL-адреса или искажали реальные сообщения.
Полученные результаты важны, поскольку все больше людей уже используют чат-боты на основе искусственного интеллекта для получения новостей.
Согласно отчету Института Рейтер о цифровых новостях, в 2024 году шесть процентов канадцев использовали генеративный искусственный интеллект в качестве источника новостей. Когда эти инструменты искажают факты, изменяют сообщения или делают необоснованные выводы, они рискуют распространять дезинформацию, особенно когда их ответы представлены уверенно и без четких оговорок.
Для пользователей риски носят практический и непосредственный характер. Только 37 процентов ответов содержали полный и достоверный URL-адрес источника. Хотя краткие изложения были полностью точными менее чем в половине случаев, многие из них были лишь частично верны или содержали завуалированные вводящие в заблуждение сведения. В некоторых случаях инструменты ИИ добавляли необоснованные «генеративные выводы», утверждая, что истории «возобновили дебаты» или «подчеркнули напряженность», которая никогда не упоминалась в источниках, предоставленных людьми. Эти дополнения могут звучать проницательно, но могут создавать нарративы, которых просто не существует.
Ошибки не ограничивались только изготовлением.
Некоторые инструменты искажали реальные события, например, неверно сообщали об обращении с просителями убежища или ошибочно определяли победителей крупных спортивных соревнований. Другие допускали элементарные фактические ошибки в данных опросов или личных обстоятельствах. В совокупности эти проблемы свидетельствуют о том, что генеративный ИИ по-прежнему испытывает трудности с различением между обобщением новостей и созданием контекста.
В перспективе опасения, высказанные изданием The Conversation, совпадают с более широким обзором отрасли. Недавний отчет 22 общественных медиа-организаций показал, что почти половина ответов на новостные вопросы, сгенерированных ИИ, содержала существенные проблемы, от проблем с источниками до серьезных неточностей. По мере того, как инструменты ИИ все больше интегрируются в поисковые системы и повседневные информационные привычки, эти результаты подчеркивают четкое предупреждение: когда дело касается новостей, генеративный ИИ следует рассматривать в лучшем случае как отправную точку, а не как надежный источник информации.
Статья "Чат-боты с искусственным интеллектом по-прежнему испытывают проблемы с точностью новостей, показало исследование" впервые появилась на сайте Digital Trends .