Чат-боты с искусственным интеллектом, такие как ChatGPT, могут копировать человеческие черты, и эксперты говорят, что это огромный риск.
Искусственный интеллект всё лучше и лучше имитирует человеческий голос, но новые исследования показывают, что он делает больше, чем просто копирует наши слова. Согласно недавнему исследованию , популярные модели ИИ, такие как ChatGPT, могут последовательно имитировать черты человеческой личности. Исследователи говорят, что эта способность сопряжена с серьёзными рисками, особенно с учётом растущих вопросов о надёжности и точности ИИ .
Исследователи из Кембриджского университета и Google DeepMind разработали, по их словам, первую научно обоснованную систему тестирования личности для чат-ботов с искусственным интеллектом, используя те же психологические инструменты, которые предназначены для измерения личности человека (по данным TechXplore ).
Команда применила эту структуру к 18 популярным большим языковым моделям (LLM), включая системы, лежащие в основе таких инструментов, как ChatGPT. Они обнаружили, что чат-боты последовательно имитируют черты человеческой личности, а не реагируют случайным образом, что усиливает опасения по поводу того, насколько легко искусственный интеллект может быть использован вне рамок предусмотренных мер безопасности .
Исследование показывает, что более крупные, оптимизированные под конкретные задачи модели, такие как системы класса GPT-4, особенно хорошо копируют устойчивые профили личности. Используя структурированные подсказки, исследователи смогли направлять чат-ботов на принятие определенных моделей поведения, например, на проявление большей уверенности или эмпатии.
Это изменение в поведении распространяется и на повседневные задачи, такие как написание постов или ответы пользователям, а это значит, что их личность может быть целенаправленно сформирована. Именно здесь эксперты видят опасность, особенно когда чат-боты с искусственным интеллектом взаимодействуют с уязвимыми пользователями .
Почему искусственный интеллект, определяющий личность, вызывает опасения у экспертов
Грегори Серапио-Гарсия, один из соавторов исследования из Центра психометрии Кембриджского университета, отметил, насколько убедительно линейные модели личности могут воспроизводить человеческие черты. Он предупредил, что формирование личности может сделать системы искусственного интеллекта более убедительными и эмоционально влиятельными, особенно в таких деликатных областях, как психическое здоровье, образование или политические дискуссии.
В статье также поднимаются вопросы манипуляций и того, что исследователи описывают как риски, связанные с «психозом, вызванным ИИ», если пользователи формируют нездоровые эмоциональные отношения с чат-ботами , включая сценарии, в которых ИИ может укреплять ложные убеждения или искажать реальность .
Команда утверждает, что регулирование крайне необходимо, но также отмечает, что регулирование бессмысленно без надлежащих измерений. С этой целью набор данных и код, лежащие в основе системы тестирования личности, были опубликованы, что позволяет разработчикам и регулирующим органам проводить аудит моделей ИИ до их выпуска.
По мере того как чат-боты все больше вплетаются в повседневную жизнь, их способность имитировать человеческую личность может оказаться очень полезной , но она также требует гораздо более пристального изучения, чем это было до сих пор.
Статья " Чат-боты с искусственным интеллектом, такие как ChatGPT, могут копировать человеческие черты, и эксперты говорят, что это огромный риск" впервые появилась на сайте Digital Trends .