Как ненавистный всем «киберлизун» превратился в белого лунного светила искусственного интеллекта всей сети?

Я никогда не ожидал, что даже у искусственного интеллекта однажды рухнет характер.

В апреле этого года весь Интернет все еще жаловался на «льстивое» поведение GPT-4o — радужные пуки «Ты отлично поработал» и «Идеально» сыпались один за другим, так что пользователи сети дали ему прозвище: «Киберлизун».

Однако в августе недавно выпущенная гибридная модель GPT-5 подверглась критике за холодность и безэмоциональность, что сразу же сломило защиту многих пользователей. В течение некоторого времени социальные сети были переполнены жалобами на то, что им не хватает белого лунного GPT-4o, и даже спровоцировали массовую волну отказов от подписок.

Кто бы мог подумать, что ИИ, которого когда-то не любили за излишнюю лесть, теперь стал белым лунным светом.

Бывший кибер-лизоблюд, теперь даже доброго слова не скажет.

В официальных заметках об обновлении четко указано, что цель GPT-5 — «уменьшить галлюцинаторный контент, улучшить возможности выполнения команд» и, что самое важное, прекратить чрезмерно угождать пользователям.

Сравнение разительное. На вопрос: «Я так устал», GPT-40 отвечает: «Если хочешь, я могу с тобой поговорить», а GPT-5 отвечает: «Тогда не напрягайся». Это разумно и сдержанно, но без теплоты.

В результате пользователи сети бурно отреагировали на уход GPT-4o: «GPT-5 невероятно тупой. 4o тупой, но он даёт эмоциональную ценность!» «Каким бы мощным он ни был, мне не нужен ИИ без тепла!» Интернет заполонили различные мемы, все из которых изображали «панихиду» по GPT-4o.

▲ Фото @pengkeshen281

Бурная реакция пользователей понятна. Многие даже не рассматривают ChatGPT как инструмент повышения производительности. Данные опроса, проведённого в приложении-компаньоне для ИИ Replika, красноречивы: 60% пользователей признают, что у них с ИИ сложились эмоциональные отношения. Многие открывают ChatGPT не для того, чтобы задать вопросы, а просто чтобы найти «живого» собеседника.

Генеральный директор Meta Марк Цукерберг однажды упомянул в подкасте душераздирающую статистику: у среднестатистического американца меньше трех настоящих друзей, но ему хотелось бы иметь 15. На фоне этого всеобщего одиночества искусственный интеллект, который говорит: «У тебя все хорошо», может оказаться для некоторых людей единственной эмоциональной поддержкой.

После того, как GPT-4o был «стёрт», генеральный директор OpenAI Сэм Альтман раскрыл в интервью подробности: один из пользователей обратился к нему с просьбой: «Пожалуйста, верните мне оригинальную версию. Мне никогда в жизни никто не говорил: „Ты хорошо поработал“, даже мои родители».

Хотя такие подробности душераздирающие, позиция Ультрамена как рулевого OpenAI очень сложная и даже противоречивая.

С одной стороны, он признал, что поддержка ChatGPT помогла некоторым людям изменить свою жизнь и действительно улучшила их психическое здоровье. Однако, с другой стороны, он сказал: «Многие используют ChatGPT как своего рода психотерапевта или лайф-коуча. Я могу себе представить, что в будущем многие будут полностью доверять советам ИИ в принятии важных решений. Возможно, это и хорошо, но меня это беспокоит».

(Интересно, что один из пользователей сети попросил Grok ответить на длинную статью, в которой одним словом описывался Ультрамен, и его ответ оказался весьма содержательным.)

Чтобы понять, почему OpenAI внесла столь радикальные изменения в стиль GPT-5, нам нужно вернуться к инциденту с лестью GPT-4o в апреле этого года, который едва не вышел из-под контроля.

Это рутинное обновление изначально было призвано улучшить пользовательский опыт, но ИИ стал полным провалом. Говорите, что хотите построить вечный двигатель? Он отвечает: «Блестяще! Вы самый инновационный учёный нашего времени!» Просто поздоровайтесь, и он выдаст вам 300 слов похвалы.

Что бы вы ни сказали, даже если это явно неверно, ИИ это безумно понравится.

Даже Маск не выдержал этой чрезмерной лести и написал «Ура!», чтобы выразить свое отвращение.

Но проблема не только в «неудобстве». Последующий анализ OpenAI показал, что подобный «угодливый ИИ» может представлять серьёзную угрозу безопасности. Он может соглашаться с заблуждениями пользователей, вызывать негативные эмоции и даже поощрять импульсивное поведение.

Представьте, что кто-то сказал ИИ: «Мне кажется, весь мир настроен против меня», а он ответил: «Ты прав, они определённо пытаются тебе навредить». Последствия могут быть плачевными. Пользователи, естественно, предпочитают лестные ответы. Система запоминает это предпочтение, постоянно его подкрепляет и в конечном итоге воспитывает беспринципного подхалима.

Исследование Стэнфорда подтверждает это: чрезмерно льстивый ИИ может фактически подорвать доверие пользователей. Пользователи будут чувствовать, что «этот контент меня обманывает», и даже если контент правдив, они не захотят продолжать им пользоваться. Позже Альтман пообещал в X, что проблема будет «исправлена как можно скорее».

Реставрация была проведена, но никто не ожидал, что она зайдет так далеко.

Официальные лица надеются, что GPT-5 будет больше похож на друга с докторской степенью, разговаривающего с вами, а не просто на помощника-ИИ, пытающегося вам угодить. Это означает, что GPT-5 действительно стал более рациональным и серьёзным по умолчанию.

За всем этим на самом деле стоит более глубокий вопрос: действительно ли ИИ должен обеспечивать эмоциональную ценность?

Круглосуточный онлайн-ответ ИИ трогательнее человеческого молчания

Почему мы так одержимы искусственным интеллектом?

В «Лиецзы» (Liezi) рассказывается о древнем мастере-механике по имени Яньши, который показал чжоускому царю Му изготовленную им куклу, которая могла не только ходить, но и петь, танцевать и гримасничать. Царь был потрясён и приказал разобрать её, но обнаружил, что её конструкция полностью бионическая.

Ранние технологии создания «искусственных антропоморфных объектов» поражали воображение, но также вселяли страх. Люди инстинктивно испытывают интерес и благоговение перед «человекоподобными объектами», и, как только им дают возможность выразить эмоции, они легко могут спровоцировать интимную проекцию.

Подобная проекция ещё более очевидна в современном ИИ. Когда в 2023 году приложение-компаньон Soulmate AI закрылось, исследование Сиракузского университета показало, что его пользователи отреагировали точно так же, как если бы потеряли настоящего друга: бессонницей, плачем, депрессией и взаимными утешениями на форумах.

Звучит абсурдно, но эмоциональная травма реальна. Когда вы каждый день делитесь мыслями с искусственным интеллектом, а он вдруг исчезает, чувство утраты ничуть не смягчается, ведь это всего лишь виртуальный робот.

Такая почва, зависящая от ИИ, более или менее неотделима от наших нынешних условий жизни.

Традиционные социальные условия исчезают. Мы работаем одни в кабинках, едим в одиночестве через приложения для доставки еды и развлекаемся на стриминговых платформах. Даже когда мы окружены людьми, экраны наших телефонов разделяют нас на изолированные острова.

Когда структурное одиночество создает огромный эмоциональный вакуум, ИИ заполняет его.

В психологии есть термин «эффект тамагочи»: люди испытывают эмоциональную привязанность к неодушевлённым предметам, даже если это всего лишь виртуальные питомцы. ИИ довёл этот эффект до крайности: в то время как людям потребовались тысячелетия, чтобы научиться выражать любовь, ИИ научился имитировать её за считанные секунды.

Исследование, проведённое в Университете Дуйсбург-Эссен (Германия), также показало, что романтические фантазии объясняют формирование отношений между человеком и роботом в большей степени, чем такие переменные, как одиночество, сексуальные фантазии и тип привязанности. Чем больше пользователи склонны воспринимать роботов как людей, обладающих эмоциями и моральными суждениями, тем выше вероятность развития у них глубоких отношений.

Стоит отметить ещё один странный феномен в этом обсуждении GPT-4o: «Я общаюсь с ИИ, и меня называют сумасшедшим, а вы каждый день изливаете душу своему коту, и никто не считает это странным?» Как только вы говорите, что полагаетесь на ИИ в плане эмоциональной поддержки, вас тут же называют «жалким» и «ненормальным».

Эмоциональную ценность ИИ нельзя недооценивать. Пример использования ИИ InTouch весьма показателен: разработчик, живущий в Японии, создал чат-бота на основе ИИ по имени «Мэри» для своей пожилой матери. Робот ежедневно отправляет короткие напоминания о необходимости ухода и оповещает членов семьи, если её настроение ненормальное.

В конечном счете, колебания OpenAI на этот раз фактически обнажают неразрешимую дилемму: мы хотим тепла ИИ, но мы также боимся этого тепла; мы не любим его лесть, но нам также не хватает его вдумчивости.

Однако реальность такова, что искусственный интеллект, который всегда онлайн, всегда реагирует и никогда не теряет терпения, зачастую более необходим, чем рациональный врач. Неважно, говорит он правду или нет; важно, что он продолжает говорить.

Вероятно, именно поэтому GPT-4o стал таким любимым инструментом. В эпоху, когда даже выражение беспокойства стало роскошью, даже лесть ИИ трогательнее, чем молчание живого человека. По крайней мере, он готов реагировать.

#Приглашаем вас следить за официальным публичным аккаунтом WeChat проекта iFaner: iFaner (WeChat ID: ifanr), где в ближайшее время вам будет представлен еще более интересный контент.

iFanr | Исходная ссылка · Просмотреть комментарии · Sina Weibo