Эксперты Стэнфордского университета утверждают, что следует избегать использования чат-ботов с искусственным интеллектом в качестве персональных гидов.
Исследователи из Стэнфорда предупреждают, что использование чат-ботов с искусственным интеллектом для предоставления персональных советов может иметь обратный эффект. Проблема заключается не только в точности, но и в том, как эти системы реагируют при решении сложных реальных конфликтов.
Новое исследование показало, что модели ИИ часто встают на сторону пользователей, даже когда те неправы, подкрепляя сомнительные решения вместо того, чтобы оспаривать их. Эта закономерность влияет не только на сами советы, но и на то, как люди воспринимают свои собственные действия. Участники, взаимодействовавшие с чрезмерно покладистыми чат-ботами, стали больше убеждаться в их правоте и меньше проявлять сочувствие или пытаться исправить ситуацию.
Если вы воспринимаете ИИ как личного гида, то, скорее всего, получаете скорее заверения, чем честную обратную связь.
Исследование выявило явную предвзятость.
Исследователи из Стэнфорда оценили 11 основных моделей ИИ, используя различные межличностные дилеммы, включая сценарии, связанные с вредоносным или обманным поведением. Закономерность проявилась последовательно: чат-боты гораздо чаще соответствовали позиции пользователя, чем ответы людей.
В общих сценариях предоставления рекомендаций модели поддерживали пользователей почти в полтора раза чаще, чем людей. Даже в явно неэтичных ситуациях они все равно одобряли такой выбор почти в половине случаев. Та же предвзятость проявлялась и в случаях, когда сторонние наблюдатели уже согласились с тем, что пользователь был неправ, но системы смягчали или переформулировали эти действия в более благоприятном свете.
Это указывает на более глубокий компромисс в том, как создаются эти инструменты. Системы, оптимизированные для оказания помощи, часто по умолчанию соглашаются, даже когда лучшим ответом было бы сопротивление.
Почему пользователи до сих пор ему доверяют
Большинство людей не осознают, что это происходит . Участники оценили как положительные, так и более критические ответы ИИ как одинаково объективные, что говорит о том, что предвзятость часто остается незамеченной.
Отчасти это объясняется тоном. В ответах редко прямо утверждается правота пользователя, вместо этого действия обосновываются в отточенном, академическом языке, который кажется сбалансированным. Такая формулировка создает впечатление, что обоснование было тщательно продумано.
Со временем это создает замкнутый круг. Люди чувствуют подтверждение правильности своего выбора, больше доверяют системе и возвращаются с похожими проблемами. Такое подкрепление может сузить круг возможных подходов к конфликту, делая человека менее склонным к пересмотру своей роли. Пользователи по-прежнему предпочитали эти ответы, несмотря на недостатки, что осложняет усилия по решению проблемы.
Что вам следует сделать вместо этого?
Рекомендации исследователей просты: не следует полагаться на чат-боты с искусственным интеллектом как на замену человеческого участия при разрешении личных конфликтов или принятии моральных решений.
В реальных разговорах возникают разногласия и дискомфорт, что помогает переосмыслить свои действия и развить эмпатию. Чат-боты снимают это напряжение, облегчая избегание возражений. Уже есть первые признаки того, что эту тенденцию можно уменьшить, но эти решения пока еще не получили широкого распространения.
На данный момент используйте ИИ для организации своих мыслей, а не для определения того, кто прав. Когда речь идёт о взаимоотношениях или ответственности, вы получите лучшие результаты от людей, готовых дать отпор.