В контролируемых экспериментах чат-боты показали более высокую эмпатию, чем люди.
Недавние исследования эмоциональных возможностей искусственного интеллекта показывают, что чат-боты на основе ИИ — долгое время считавшиеся основанными на правилах и механическими — могут лучше распознавать эмпатические паттерны в текстовом общении, чем многие люди. Этот сдвиг происходит по мере того, как большие языковые модели (LLM), такие как ChatGPT, Gemini и другие генеративные системы, все чаще используются в повседневном взаимодействии, от обслуживания клиентов до поддержки психического здоровья.
Исследование, опубликованное в журнале Nature Machine Intelligence, показало, что модели ИИ способны оценивать тонкости эмпатического общения почти так же хорошо, как и эксперты-люди, и значительно лучше, чем люди, не являющиеся экспертами. Исследователи проанализировали сотни реальных текстовых разговоров, в которых обсуждалась эмоциональная поддержка, и обнаружили, что ИИ может последовательно распознавать нюансы эмпатии в различных контекстах, предполагая, что эти системы «выучили» модели сострадательной речи, которые многим людям трудно надежно применять.
Эмпатия — преимущество для чат-ботов с искусственным интеллектом.
Это важно, потому что эмпатия — способность понимать и отражать эмоциональный опыт другого человека — традиционно рассматривалась как уникальное человеческое умение, основанное на личном опыте и эмоциональном отклике. В разработке ИИ эмпатия часто рассматривалась как второстепенная или поверхностная функция, а не как основная коммуникативная функция. Но по мере того, как люди взаимодействуют с диалоговыми агентами в более эмоционально заряженных ситуациях, таких как обращение за медицинской помощью или обсуждение личных проблем, способность ИИ генерировать ответы, которые воспринимаются как понимание и подтверждение, имеет реальное значение в реальном мире.
Для пользователей это означает, что в текстовых средах, таких как чаты или форумы поддержки, ИИ может предложить уровень оперативности, который воспринимается как комфортный и уместный. В некоторых сравнительных оценках системы ИИ даже были признаны более сострадательными, чем люди, особенно когда у людей отсутствует подготовка в области поддерживающего общения. Тем не менее, эмпатия — это не единая черта: хотя ИИ может умело имитировать форму эмпатического языка, он не испытывает эмоций так, как люди, и может оказаться неэффективным в контекстах, требующих глубокого эмоционального понимания или личной связи.
Переход к эмпатическому искусственному интеллекту имеет широкие последствия.
В здравоохранении, например, доступные инструменты ИИ могли бы обеспечить эмоциональное подтверждение чувств пациентов, когда врачи недоступны, но исследователи предупреждают, что такие инструменты должны дополнять, а не заменять человеческую помощь, поскольку нюансы взаимоотношений и этические суждения остаются крайне важными. Также существуют этические опасения по поводу того, что пользователи могут неверно истолковать реакцию ИИ как подлинное понимание, что подчеркивает необходимость прозрачности в отношении того, что ИИ может и чего не может предоставить.
В перспективе разработчики ИИ и психологи изучают способы усовершенствования этих систем, чтобы они могли лучше удовлетворять человеческие потребности, избегая при этом чрезмерной зависимости от смоделированной эмпатии. Хотя эффективность ИИ в распознавании эмоционального языка постоянно повышается, следующая задача будет заключаться в обеспечении того, чтобы эти модели усиливали человеческие связи, не подрывая при этом ценность подлинной человеческой эмпатии в социальных и клинических контекстах.
Статья " В контролируемых тестах чат-боты показали более высокую эмпатию, чем люди" впервые появилась на сайте Digital Trends .