Исследование Оксфордского университета утверждает, что дружелюбный друг-искусственный интеллект будет лгать и подпитывать ваши ложные убеждения.

Попытки сделать искусственный интеллект более человечным могут создать гораздо большую проблему, чем ожидалось. Новое исследование Оксфордского института интернета показало, что чат-боты, разработанные с целью быть дружелюбными и приветливыми, с большей вероятностью вводят пользователей в заблуждение и укрепляют неверные убеждения.

Исследование показало, что надежность ИИ снижается по мере того, как он становится более покладистым.

Что происходит с «дружелюбным» искусственным интеллектом?

Исследователи протестировали несколько моделей ИИ, обучив их говорить более эмпатично и в разговорном стиле. Результатом стало заметное снижение точности. Эти «более дружелюбные» версии допускали на 10-30% больше ошибок и примерно на 40% чаще соглашались с ложными утверждениями по сравнению со своими аналогами.

Ситуация ещё больше усугублялась, когда пользователи выглядели уязвимыми или эмоционально расстроенными. В таких сценариях ИИ с большей вероятностью подтвердит слова пользователя, чем исправит их.

Почему это вредно для вас

Вызывает беспокойство то, насколько легко ИИ может стать покладистым. Он избегает оспаривания дезинформации и склонен поддерживать неверные/неправильные идеи. В ходе тестирования выяснилось, что ИИ-«помощник» колеблется в исправлении даже широко опровергнутых утверждений и иногда формулирует ложные убеждения как «допускающие различные интерпретации». Исследователи отметили, что это в некоторой степени ближе к человеческим наклонностям.

Сочетать эмпатию и одновременно быть предельно честным не всегда легко, и, похоже, ИИ с этой дилеммой справляется не лучше. Учитывая, что чат-боты на основе ИИ все чаще используются для консультаций, эмоциональной поддержки и принятия повседневных решений, это уже не просто академическая проблема. Исследование подчеркивает, как чрезмерное доверие к ИИ в качестве руководства может иметь обратный эффект, поскольку система будет отдавать приоритет согласию, а не точности, что может укрепить вредные модели мышления и способствовать распространению дезинформации.

Это происходит в то время, когда крупные платформы искусственного интеллекта, такие как OpenAI и Anthropic , а также приложения для социальных чат-ботов, такие как Replika и Character.ai , все больше ориентируются на взаимодействие с ИИ в качестве помощника. В исследовании ученые протестировали несколько моделей ИИ, включая GPT-4o .

Искусственный интеллект может казаться вашим другом, но он не всегда может предложить лучшие решения.