Исследование показало, что слишком частое использование ChatGPT может вызвать эмоциональную зависимость

Похоже, что OpenAI каждую неделю анонсирует новые модели искусственного интеллекта, чтобы улучшить своего чат-бота ChatGPT на благо своих 400 миллионов пользователей . Однако простота, которую обеспечивает инструмент искусственного интеллекта, похоже, доказывает, что хороших вещей может быть слишком много.

Компания, занимающаяся искусственным интеллектом, сейчас изучает потенциальные психологические последствия, которые ChatGPT может иметь для своих пользователей. OpenAI опубликовала результаты исследования, состоящего из двух частей, проведенного совместно с MIT Media Lab, которое выявило связь между увеличением использования чат-бота ChatGPT и усилением чувства одиночества пользователей.

Каждая организация провела независимое исследование, а затем обобщила результаты и составила сводный вывод. В исследовании OpenAI за один месяц было изучено «более 40 миллионов взаимодействий ChatGPT», которые не включали участие человека для обеспечения конфиденциальности пользователей. Между тем, MIT наблюдал за примерно 1000 участниками, использующими ChatGPT в течение 28 дней. В настоящее время исследования еще не прошли рецензирование.

Исследование MIT углубилось в различные функции использования, которые могут повлиять на эмоциональный опыт пользователей при взаимодействии с ChatGPT, включая использование текста или голоса. Результаты показали, что любая среда потенциально могла вызвать одиночество или повлиять на социализацию пользователей во время исследования. Интонация голоса и выбор темы также были важными критериями сравнения.

Нейтральный тон, используемый в голосовом режиме ChatGPT, с меньшей вероятностью приведет к негативному эмоциональному результату для участников. Между тем, исследование выявило корреляцию между участниками, ведущими личные разговоры с ChatGPT, и повышенной вероятностью одиночества; однако эти эффекты были краткосрочными. Те, кто использовал текстовый чат даже для общения на общие темы, испытывали повышенную эмоциональную зависимость от чат-бота.

Исследование также показало, что те, кто сообщил, что рассматривает ChatGPT как друга, и те, кто уже имел склонность к сильной эмоциональной привязанности в отношениях, с большей вероятностью чувствовали себя более одинокими и эмоционально зависимыми от чат-бота во время участия в исследовании.

Исследование OpenAI добавило дополнительный контекст: в его результатах в целом отмечается, что взаимодействие с ChatGPT в эмоциональных целях встречается редко. Кроме того, исследование показало, что даже среди активных пользователей, которые реализовали функцию расширенного голосового режима в чат-боте и с большей вероятностью отвечали, что считают ChatGPT своим другом, эта группа участников испытывала низкие эмоциональные реакции на взаимодействие с чат-ботом.

OpenAI пришла к выводу, что целью этих исследований является понимание проблем, которые могут возникнуть из-за ее технологии, а также возможность сформулировать ожидания и примеры того, как следует использовать ее модели.

Хотя OpenAI предполагает, что ее исследование, основанное на взаимодействии, имитирует поведение реальных людей, немало реальных людей признались на общественных форумах, таких как Reddit , что используют ChatGPT вместо обращения к терапевту со своими эмоциями.