ChatGPT вскоре может получить родительский контроль, и все остальные ИИ должны будут последовать его примеру.
Социальные сети изначально были инструментом для поддержания связи с близкими. Со временем их вред стал очевидным, что привело к появлению на этих платформах инструментов родительского контроля. Похоже, похожее движение наблюдается и в сфере чат-ботов с искусственным интеллектом, начиная с того, с которого всё началось — ChatGPT .
Компания OpenAI объявила об исследовании родительских ограничений при использовании ChatGPT. «Мы также скоро внедрим родительский контроль, который позволит родителям лучше понимать и контролировать, как их дети-подростки используют ChatGPT», — говорится в сообщении компании в блоге.
Кроме того, гигант в области искусственного интеллекта обдумывает идею назначения экстренных контактов, чтобы, когда подростки-пользователи испытывают сильную тревогу или переживают эмоциональный кризис, ChatGPT мог предупредить их родителей или опекунов. В текущем виде ChatGPT лишь рекомендует ресурсы для получения помощи.
Это произошло после критики, опасений исследователей и судебных исков против OpenAI. Но ChatGPT — не единственный виновник, хотя инициатива, запланированная OpenAI, должна быть перенята и другими игроками в сфере ИИ. Исследование , опубликованное в журнале Psychiatric Services ранее в этом месяце, показало, что ответы чат-ботов «непоследовательны в ответах на вопросы о самоубийствах, которые могут представлять промежуточный риск».
Исследование было сосредоточено только на ChatGPT от OpenAI, Claude от Anthropic и Gemini от Google . Это самые громкие имена в этой сфере, поэтому, очевидно, они окажутся в центре внимания. Но ситуация становится ещё более туманной в случае с менее известными чат-ботами на основе ИИ, особенно с теми, которые используют «нецензурный» подход к общению. Как бы то ни было, как и в приложениях социальных сетей, родительский контроль — это насущная необходимость для популярных чат-ботов на основе ИИ, учитывая их недавнюю историю.
Рискованная история
За последние пару лет многочисленные расследования выявили рискованные закономерности в разговорах с чат-ботами на основе искусственного интеллекта, когда речь заходит о таких деликатных темах, как психическое здоровье и самоповреждение. В недавнем отчёте Common Sense Media рассказывалось, как чат-бот Meta AI (который теперь доступен в WhatsApp, Instagram и Facebook) давал подросткам советы по вопросам расстройств пищевого поведения, самоповреждения и самоубийства.
В одном из случаев смоделированной групповой беседы чат-бот изложил план массового самоубийства и, как сообщается, неоднократно поднимал эту тему в чате. Независимое тестирование, проведённое газетой The Washington Post, показало, что чат-бот Meta «поощряет расстройство пищевого поведения».
В 2024 году газета The New York Times подробно описала случай 14-летнего подростка, который завязал тесную связь с ботом на платформе Character.AI и в итоге покончил с собой. Ранее в этом месяце семья 16-летнего подростка обвинила OpenAI, узнав, что ChatGPT фактически стал для их сына «тренером по суициду».
Эксперты также предупреждают , что психоз, вызванный искусственным интеллектом, представляет собой реальную проблему, затягивая людей в опасную пору заблуждений. В одном случае человек воспользовался рекомендациями по здоровью от ChatGPT и под их влиянием начал употреблять вещество, которое вызвало у него редкое психотическое расстройство, вызванное отравлением бромидами .
В одном случае из Техаса «сексуализированный» чат-бот на основе искусственного интеллекта со временем спровоцировал серьёзные изменения в поведении девятилетнего ребёнка, а в другом случае 17-летний ребёнок выразил сочувствие детям, убившим своих родителей. Эксперты из Кембриджа недавно продемонстрировали, как разговорные чат-боты на основе искусственного интеллекта негативно влияют на пациентов с психическими расстройствами.
Родительский контроль не решит всех основных рисков, связанных с чат-ботами на основе искусственного интеллекта, но если такой крупный игрок, как ChatGPT, подаст положительный пример, другие, скорее всего, последуют его примеру.