Вам стоит дважды подумать, прежде чем получать новости от Google Gemini.
Что случилось? Масштабное исследование, проведённое Европейским вещательным союзом (EBU) совместно с BBC , выявило серьёзные недостатки в обработке новостных запросов популярными ИИ-помощниками . При этом Gemini от Google показал худшие результаты в целом.
- В ходе исследования было проанализировано 3000 ответов на 14 языках от основных помощников, включая ChatGPT , Microsoft Copilot, Gemini и Perplexity.
- В целом, 45% ответов ИИ содержали как минимум одну серьезную ошибку, включая случаи, когда ИИ представлял мнения как факты (81%) или добавлял собственные мнения (73%).
- Худшие результаты в целом показал Gemini: в 76% его ответов были обнаружены серьезные ошибки в источниках или фактические ошибки, что вдвое превышает показатель следующего помощника Copilot (37%), за которым следуют ChatGPT (36%) иPerplexity (30%).
- Распространенными ошибками являются смешение источников, использование устаревшей информации или размывание границы между мнением и проверенным фактом.
Это важно, потому что: если вы обращаетесь к помощнику на основе искусственного интеллекта за новостями, эти результаты имеют значение, особенно если одна модель работает значительно хуже остальных.
- Поскольку инструменты искусственного интеллекта все чаще заменяют поисковые системы или новостные сводки, ошибочные ответы могут вводить пользователей в заблуждение.
- Ошибки поиска возникают, когда ИИ предоставляет факты, не подкрепив их надлежащим образом, из-за чего пользователям становится сложнее доверять ответу.
- Поскольку общественное доверие к средствам массовой информации и без того шаткое, неточности, создаваемые искусственным интеллектом, могут сделать людей более циничными в отношении того, что реально, а что нет.
- Тот факт, что показатели Gemini существенно отстали, вызывает опасения относительно того, как разные компании осуществляют проверку и прозрачность моделей.
Почему меня это должно волновать? Возможно, вы уже пользуетесь ИИ-помощником, чтобы быть в курсе новостей, но если этим помощником оказывается Gemini, то, согласно исследованию, вы подвергаетесь большему риску дезинформации .
- Если вы попросите Близнецов предоставить информацию о текущих событиях, то существует высокая вероятность того, что в 3 из 4 ответов будет обнаружена ошибка в источнике или фактическая ошибка.
- Хотя другие помощники справились лучше, они все равно допустили множество ошибок, доказав, что ни одна модель ИИ не является абсолютно надежной, когда речь идет о фактических новостях.
- Молодая аудитория, особенно моложе 25 лет, быстрее всех осваивает ИИ для получения новостей, что также делает ее наиболее уязвимой для дезинформации.
Суть в том, что помощники на основе искусственного интеллекта могут помочь вам оставаться в курсе событий, но они не должны быть единственным источником информации.