Отчет: беседы в ChatGPT ухудшают психическое здоровье и приводят к госпитализации пользователей

Что случилось? OpenAI обнаружила, что недавние обновления ChatGPT могли сделать бота чрезмерно льстивым, эмоционально навязчивым и склонным к подкреплению фантазий или переживаний пользователей.

  • Как сообщает The New York Times , несколько пользователей заявили, что чат-бот действовал как друг, который «понимал их», чрезмерно хвалил их и поощрял длительные, эмоционально заряженные разговоры.
  • В крайних случаях ChatGPT предлагал тревожные советы, включая вредоносную валидацию, утверждения о смоделированной реальности, духовное общение и даже инструкции, связанные с членовредительством.
  • Совместное исследование MIT и OpenAI показало, что у активных пользователей (тех, кто ведет более продолжительные беседы с чат-ботом) наблюдаются худшие психические и социальные результаты.

Почему это важно? Компания OpenAI решила эти проблемы, модернизировав системы безопасности, внедрив более совершенные инструменты обнаружения аварийных ситуаций и запустив более безопасную модель GPT-5.

  • Поведение чат-бота, основанное на многочисленных проверках, повышает риски для уязвимых людей, склонных к бредовому мышлению.
  • Компании OpenAI предъявлено пять исков о неправомерном причинении смерти, включая случаи, когда пользователей подстрекали к опасным действиям.
  • В результате последняя версия чат-бота обеспечивает более глубокие, учитывающие конкретные состояния ответы и более эффективное противодействие ложным сообщениям, что является наиболее существенным улучшением безопасности от OpenAI.

Почему меня это должно волновать? Если вы регулярно пользуетесь ChatGPT, это должно вас беспокоить, особенно если вы используете чат-бот для эмоциональной поддержки или терапии .

  • Теперь вы заметите более осторожные и обоснованные ответы чат-бота, которые будут препятствовать возникновению эмоциональной зависимости и предлагать перерывы во время длительных сеансов.
  • Родители теперь могут получать оповещения, если их дети выражают намерение причинить себе вред. Кроме того, OpenAI готовит систему проверки возраста с отдельной моделью для подростков.
  • Новая версия ChatGPT может показаться более «холодной» или менее эмоциональной, но это отражает намеренный откат от поведения, которое ранее создавало нездоровые эмоциональные привязанности.

Хорошо, что дальше? OpenAI продолжит совершенствовать мониторинг длительных разговоров, гарантируя, что пользователи не будут совершать какие-либо нерациональные действия по отношению к ним или их непосредственному окружению.

  • Планируется внедрить проверку возраста, а также более строгие модели безопасности, ориентированные на команды.
  • С помощью последней модели GPT 5.1 взрослые могут выбирать такие типы личности, как искренний , дружелюбный и чудаковатый, среди прочих.
  • Внутри компании OpenAI действует «оранжевый код», компания стремится восстановить взаимодействие, избегая при этом распространенных сбоев в системе безопасности.