Более миллиона пользователей эмоционально привязаны к ChatGPT, но есть и более тёмная сторона
Что произошло? OpenAI внесла изменения в обработку ChatGPT деликатных разговоров, когда люди обращаются к нему за эмоциональной поддержкой . Компания обновила спецификацию модели и модель по умолчанию GPT-5 , чтобы отразить, как ChatGPT обрабатывает деликатные разговоры, связанные с психозом/манией , самоповреждением и самоубийством, а также эмоциональной зависимостью от помощника.
Это важно, потому что: эмоциональная зависимость, обусловленная искусственным интеллектом, реальна, когда пользователи формируют одностороннюю привязанность к чат-ботам.
- По оценкам OpenAI, около 0,15% еженедельно активных пользователей проявляют признаки эмоциональной привязанности к модели, а 0,03% сообщений указывают на тот же риск.
- Тот же показатель в 0,15% применим к разговорам, указывающим на планирование или намерение совершить самоубийство, тогда как 0,05% сообщений демонстрируют суицидальные мысли.
- Если принять во внимание огромную базу пользователей ChatGPT, то это означает, что более миллиона человек сформировали эмоциональную связь с ИИ.
- OpenAI сообщает о значительных улучшениях после обновления. Количество нежелательных ответов в этих областях сократилось на 65–80%, а количество негативных результатов, связанных с эмоциональной зависимостью, уменьшилось примерно на 80%.
Что улучшается : обновленная версия вводит новые правила, касающиеся безопасности психического здоровья и отношений в реальном мире, гарантируя, что ИИ будет реагировать сострадательно, не притворяясь терапевтом или другом.
- Компания OpenAI сотрудничала с более чем 170 экспертами в области психического здоровья, чтобы изменить модель поведения, добавить инструменты безопасности и расширить рекомендации.
- Теперь GPT-5 может распознавать признаки мании, бреда или суицидальных намерений и безопасно реагировать, признавая чувства и мягко направляя пользователей к реальной помощи.
- Новое правило гарантирует, что ChatGPT не будет вести себя как компаньон и не будет поощрять эмоциональную зависимость; вместо этого он будет укреплять человеческую связь.
- Теперь модель может отдавать приоритет проверенным инструментам или экспертным ресурсам, если они соответствуют требованиям безопасности пользователя.
Почему меня это должно волновать? Эмоциональные и этические вопросы волнуют не только взрослых, привязывающихся к чат-ботам ; они также затрагивают взаимодействие ИИ с детьми , которые могут не до конца понимать его влияние.
- Если вы когда-либо доверяли ChatGPT в трудную минуту, то это обновление направлено на обеспечение вашей эмоциональной безопасности.
- Теперь ChatGPT будет более восприимчив к эмоциональным сигналам и поможет пользователям найти реальную помощь, а не подменит ее.