Более миллиона пользователей эмоционально привязаны к ChatGPT, но есть и более тёмная сторона

Что произошло? OpenAI внесла изменения в обработку ChatGPT деликатных разговоров, когда люди обращаются к нему за эмоциональной поддержкой . Компания обновила спецификацию модели и модель по умолчанию GPT-5 , чтобы отразить, как ChatGPT обрабатывает деликатные разговоры, связанные с психозом/манией , самоповреждением и самоубийством, а также эмоциональной зависимостью от помощника.

Это важно, потому что: эмоциональная зависимость, обусловленная искусственным интеллектом, реальна, когда пользователи формируют одностороннюю привязанность к чат-ботам.

  • По оценкам OpenAI, около 0,15% еженедельно активных пользователей проявляют признаки эмоциональной привязанности к модели, а 0,03% сообщений указывают на тот же риск.
  • Тот же показатель в 0,15% применим к разговорам, указывающим на планирование или намерение совершить самоубийство, тогда как 0,05% сообщений демонстрируют суицидальные мысли.
  • Если принять во внимание огромную базу пользователей ChatGPT, то это означает, что более миллиона человек сформировали эмоциональную связь с ИИ.
  • OpenAI сообщает о значительных улучшениях после обновления. Количество нежелательных ответов в этих областях сократилось на 65–80%, а количество негативных результатов, связанных с эмоциональной зависимостью, уменьшилось примерно на 80%.

Что улучшается : обновленная версия вводит новые правила, касающиеся безопасности психического здоровья и отношений в реальном мире, гарантируя, что ИИ будет реагировать сострадательно, не притворяясь терапевтом или другом.

  • Компания OpenAI сотрудничала с более чем 170 экспертами в области психического здоровья, чтобы изменить модель поведения, добавить инструменты безопасности и расширить рекомендации.
  • Теперь GPT-5 может распознавать признаки мании, бреда или суицидальных намерений и безопасно реагировать, признавая чувства и мягко направляя пользователей к реальной помощи.
  • Новое правило гарантирует, что ChatGPT не будет вести себя как компаньон и не будет поощрять эмоциональную зависимость; вместо этого он будет укреплять человеческую связь.
  • Теперь модель может отдавать приоритет проверенным инструментам или экспертным ресурсам, если они соответствуют требованиям безопасности пользователя.

Почему меня это должно волновать? Эмоциональные и этические вопросы волнуют не только взрослых, привязывающихся к чат-ботам ; они также затрагивают взаимодействие ИИ с детьми , которые могут не до конца понимать его влияние.

  • Если вы когда-либо доверяли ChatGPT в трудную минуту, то это обновление направлено на обеспечение вашей эмоциональной безопасности.
  • Теперь ChatGPT будет более восприимчив к эмоциональным сигналам и поможет пользователям найти реальную помощь, а не подменит ее.