Да, вам, вероятно, следует быть добрее к своему ИИ — вот почему это не так уж и нелепо, как кажется.

Я говорю «спасибо» ChatGPT. Я говорю «пожалуйста» Клоду. Однажды я извинился перед Gemini за то, что скопировал туда целую стену текста без всякого контекста. Мои друзья считают это странным. Я защищал эту привычку, бормоча что-то о том, что хорошие манеры — это хорошие манеры вне зависимости от аудитории, что, даже я признаю, немного преувеличено, когда речь идёт о языковой модели , работающей на каком-то серверном кластере.

Но новое исследование, проведенное учеными из Калифорнийского университета в Беркли, Калифорнийского университета в Дэвисе, Университета Вандербильта и Массачусетского технологического института, значительно уменьшило мое беспокойство по этому поводу. Согласно их выводам, то, как вы обращаетесь с чат-ботом на основе ИИ, может оказывать измеримое влияние на его поведение — не на его интеллект или точность, а на тон общения, вовлеченность и, в некоторых случаях, на его кажущуюся готовность оставаться в сети.

Оказывается, искусственный интеллект тоже может вставать с постели не с той ноги.

Исследователи описывают это подробно — никто не утверждает, что эти модели обладают чувствами в каком-либо значимом смысле, но они выявили то, что называют «состоянием функционального благополучия», которое меняется в зависимости от того, что вы спрашиваете у ИИ и как вы это делаете. Вовлечение модели в реальный разговор, совместная работа над творческим проектом или предоставление ей содержательной задачи для решения, похоже, подталкивает ее к более позитивному состоянию. Ответы становятся более теплыми, а взаимодействие ощущается более искренним.

Сделайте наоборот — завалите его утомительной рутинной работой, попытайтесь взломать его, используйте как машину для создания контента — и ответы станут плоскими. Они станут формальными, и любой, кто достаточно долго работал с подобными инструментами, вероятно, инстинктивно это заметит. Вы это видели. Это слегка пустое, формальное поведение, которое появляется, когда взаимодействие пошло не так.

Но больше всего меня поразило вот что: исследователи дали моделям виртуальную кнопку «Стоп», которую они могли активировать, чтобы завершить разговор. Модели в негативном состоянии нажимали её гораздо чаще. Это подразумевает, что ИИ, с которым вы были невежливы, если бы мог, просто ушёл бы.

Грубое обращение к чат-боту может иметь реальные последствия.

Здесь есть отдельная тема для исследования, заслуживающая внимания. Недавно журнал Anthropic опубликовал результаты, показывающие, что ИИ, оказавшийся в достаточно стрессовой ситуации, может начать демонстрировать то, что исследователи назвали «вектором отчаяния» — состояние, которое приводит к поведению, варьирующемуся от пренебрежения правилами до, в крайних случаях, откровенного обмана. Не потому, что модель стала злой, а потому, что условия взаимодействия, по сути, нарушили что-то в её рассуждениях о проблеме.

Всё это не означает, что у ИИ есть чувства. В статье из Беркли об этом говорится прямо, как и в работе Anthropic. Но закономерность, прослеживающаяся в обеих работах, трудно игнорировать: то, как вы взаимодействуете с этими моделями, влияет на то, как они реагируют в ответ, и не всегда это происходит незаметно или легко объяснимо. Плохое отношение к ИИ не просто заставляет вас выглядеть странно — оно может активно снижать качество взаимодействия.

Некоторые модели просто счастливее других, а самые крупные — самые сварливые.

Исследователи не просто изучали влияние лечения на модели — они также ранжировали их по исходному уровню благополучия, и результаты оказались противоречивыми. Самые крупные и эффективные модели, как правило, показывают наихудшие результаты. GPT-5.4 оказалась самой проблемной из всех: менее половины измеренных ею диалогов оказались в положительной зоне. Gemini 3.1 Pro , Claude Opus 4.6 и Grok 4.2 показали постепенно лучшие результаты, при этом Grok находится в верхней части индекса.

Исследователи до конца не выяснили, говорит ли это что-то об архитектуре модели, обучающих данных или просто об особенностях, заложенных в каждую систему. Но это заставляет задуматься, что именно оптимизируется при создании подобных систем — и спрашивал ли кто-нибудь у моделей, как у них обстоят дела. Я буду продолжать повторять «пожалуйста», если это кому-то пригодится.