В ChatGPT ввели правила безопасности для защиты подростков и поощрения человеческих отношений, а не виртуальных друзей.
Компания OpenAI обновила свои «спецификации модели» — по сути, свод правил для своего ИИ — добавив конкретный набор принципов для лиц младше 18 лет (U18), призванных изменить подход ChatGPT к общению с подростками в возрасте от 13 до 17 лет. Этот шаг является явным признанием того, что подростки — это не просто «мини-взрослые»; у них другие эмоциональные и возрастные потребности, требующие более строгих мер предосторожности, особенно когда разговоры становятся серьезными или рискованными.
Новая концепция взаимодействия с ИИ, ориентированная на подростков.
В этом обновлении подробно описано, как ChatGPT должен обрабатывать пользователей-подростков, соблюдая при этом общие правила, применимые ко всем остальным. OpenAI заявляет, что цель состоит в создании более безопасного и соответствующего возрасту пользовательского опыта, с упором на профилактику и прозрачность.
Это не просто случайные правила; принципы для лиц младше 18 лет основаны на науке о развитии и были проверены независимыми экспертами, включая Американскую психологическую ассоциацию.
В основе концепции лежат четыре основных принципа: приоритет безопасности подростков (даже если это делает ИИ менее «полезным» в данный момент), направление подростков к реальной поддержке вместо использования чат-бота, отношение к ним как к настоящим подросткам, а не как к маленьким детям или взрослым, и честное признание ограничений ИИ.
Эти принципы формализуют то, как ChatGPT проявляет особую осторожность, когда затрагиваются такие темы, как членовредительство, ролевые игры сексуального характера, опасные испытания, употребление психоактивных веществ, проблемы с восприятием собственного тела или просьбы сохранить в тайне небезопасное поведение.
Что это значит для семей и что будет дальше?
Это важно, потому что ИИ быстро становится стандартным инструментом, с помощью которого молодые люди учатся и находят ответы. Без четких границ существует реальная опасность того, что подростки могут обратиться к ИИ в моменты, когда им действительно нужна помощь родителей, врача или психолога.
Компания OpenAI утверждает, что эти новые правила гарантируют, что в случае, если разговор зайдет в опасную зону, голосовой помощник предложит более безопасные альтернативы, установит четкие границы и посоветует подростку обратиться к взрослому, которому он доверяет. Если ситуация выглядит как чрезвычайная, система настроена таким образом, чтобы направлять подростка на горячие линии или в экстренные службы.
Для родителей это дает дополнительную уверенность. OpenAI связывает эти новые принципы со своей программой Teen Safety Blueprint и существующими средствами родительского контроля. Защита также расширяется и охватывает новые функции, такие как групповые чаты , браузер ChatGPT Atlas и приложение Sora, а также включает встроенные напоминания о необходимости сделать перерыв, чтобы дети не были прикованы к экрану.
В перспективе OpenAI начинает внедрение инструмента прогнозирования возраста для личных аккаунтов ChatGPT. Эта система попытается определить, является ли пользователь несовершеннолетним, и автоматически включит соответствующие меры защиты для подростков.
Если система не уверена, она автоматически переключается на более безопасный вариант для лиц младше 18 лет на всякий случай. Компания заявляет, что это не разовое решение; они планируют продолжать совершенствовать эти средства защиты на основе новых исследований и отзывов, давая понять, что безопасность подростков — это долгосрочный проект.
Статья "ChatGPT вводит правила безопасности для защиты подростков и поощрения человеческих отношений вместо виртуальных друзей" впервые появилась на сайте Digital Trends .