Чат-боты становятся слишком эмоциональными, и это не нравится клиентам.
Когда представитель службы поддержки говорит: «Я прекрасно понимаю ваше разочарование», это звучит естественно. Когда то же самое говорит чат-бот, возникает ощущение, что что-то не так. Теперь исследователи подтвердили это интуитивное ощущение с помощью реальных данных.
Как сообщает Techxplore , новое исследование , опубликованное в MIS Quarterly, показало, что когда чат-боты с искусственным интеллектом проявляют эмпатию во время сбоя в обслуживании, это может фактически ухудшить ситуацию для клиентов, а не улучшить ее.
Почему эмпатия чат-ботов приводит к обратному эффекту?
Исследовательская группа из Университета Макгилла, Университета Южной Флориды и Гонконгского баптистского университета провела три отдельных эксперимента, в которых участники взаимодействовали с сервисным чат-ботом, допускавшим ошибки. В некоторых случаях чат-бот отвечал сочувствующими фразами, такими как «Я действительно понимаю ваше разочарование», после ошибок. В других случаях он просто переходил к следующему шагу, не обращая внимания на эмоции клиента.
Эмпатические ответы не были восприняты положительно. Вместо того чтобы успокоить клиентов, они вызвали то, что исследователи называют «психологической реактивностью» — инстинктивную негативную реакцию, когда люди чувствуют угрозу своему чувству контроля или свободы.
Мысль о том, что машина проанализировала их эмоциональное состояние и отреагировала на него, воспринималась скорее как вторжение в частную жизнь, чем как утешение. Это привело к снижению удовлетворенности клиентов общим качеством обслуживания.
Это совпадает с моим личным опытом. Когда чат-боты, такие как ChatGPT, пытаются быть слишком ободряющими или понимающими, это вызывает дискомфорт. Это похоже на эффект «зловещей долины», который я испытываю при просмотре контента, сгенерированного ИИ . Когда вы знаете, что общаетесь с ИИ , ложная эмоциональная поддержка раздражает вас больше, чем прямые ответы.
Так что же должны делать чат-боты вместо этого?
Исследователи предполагают, что компаниям не следует автоматически наделять чат-боты функциями эмпатии, особенно при обработке сбоев в работе сервиса. Преимущества человеческой эмпатии не просто переносятся на ИИ.
Чат-боты могут использовать и другие подходы, такие как юмор, комплименты или прямое извинение, которые не несут в себе такого же навязчивого подтекста.
Вывод очевиден. Делать чат-бота более похожим на человека — не всегда правильное решение. Иногда лучше позволить боту оставаться ботом.