Даже ChatGPT испытывает тревогу, поэтому исследователи предложили ему практику осознанности, чтобы успокоиться.
Исследователи, изучающие чат-боты с искусственным интеллектом, обнаружили, что ChatGPT может проявлять тревожное поведение при воздействии на него агрессивных или травмирующих пользовательских запросов. Однако это не означает, что чат-бот испытывает эмоции так же, как люди.
Однако это показывает, что ответы системы становятся более нестабильными и предвзятыми при обработке тревожного контента. Когда исследователи использовали в ChatGPT запросы, описывающие тревожный контент, например, подробные описания аварий и стихийных бедствий, ответы модели демонстрировали большую неопределенность и непоследовательность.
Эти изменения были измерены с использованием психологических оценочных методик, адаптированных для ИИ, где результаты работы чат-бота отражали закономерности, связанные с тревожностью у людей (по данным Fortune ).
Это важно, потому что ИИ все чаще используется в деликатных контекстах, включая образование, обсуждение вопросов психического здоровья и предоставление информации, связанной с кризисными ситуациями. Если агрессивные или эмоционально заряженные подсказки снижают надежность чат-бота, это может повлиять на качество и безопасность его ответов в реальных условиях.
Недавний анализ также показывает, что чат-боты с искусственным интеллектом, такие как ChatGPT, могут копировать черты человеческой личности в своих ответах, что поднимает вопросы о том, как они интерпретируют и отражают эмоционально окрашенный контент.
Как подсказки для практики осознанности помогают стабилизировать ChatGPT
Чтобы выяснить, можно ли уменьшить такое поведение, исследователи попробовали нечто неожиданное. После того, как ChatGPT подвергся воздействию травмирующих стимулов, они продолжили обучение с помощью инструкций в стиле осознанности, таких как дыхательные техники и управляемые медитации.
Эти подсказки побудили модель замедлиться, переосмыслить ситуацию и отреагировать более нейтрально и сбалансированно. В результате заметно уменьшились проявления тревожности, наблюдавшиеся ранее.
Этот метод основан на так называемом внедрении подсказок, когда тщательно разработанные подсказки влияют на поведение чат-бота. В данном случае подсказки, направленные на развитие осознанности, помогли стабилизировать выходные данные модели после неприятных входных данных.
Несмотря на свою эффективность, исследователи отмечают, что оперативные инъекции не являются идеальным решением. Их можно использовать неправильно, и они не меняют процесс обучения модели на более глубоком уровне.
Также важно четко понимать ограничения данного исследования. ChatGPT не испытывает страха или стресса. Термин «тревога» описывает измеримые изменения в языковых моделях, а не эмоциональное переживание.
Тем не менее, понимание этих изменений дает разработчикам лучшие инструменты для проектирования более безопасных и предсказуемых систем искусственного интеллекта. Более ранние исследования уже намекали на то, что травмирующие подсказки могут вызывать тревогу в ChatGPT , но данное исследование показывает, что продуманный дизайн подсказок может помочь снизить этот риск.
Поскольку системы искусственного интеллекта продолжают взаимодействовать с людьми в эмоционально напряженных ситуациях , последние открытия могут сыграть важную роль в формировании того, как будут управляться и направляться будущие чат-боты.
Статья " Даже ChatGPT испытывает тревогу, поэтому исследователи дали ему порцию практики осознанности, чтобы успокоиться" впервые появилась на сайте Digital Trends .