В детских игрушках по-прежнему появляются чат-боты с искусственным интеллектом, предназначенные только для взрослых.

В новом отчете Американской исследовательской группы по защите общественных интересов (PIRG) Education Fund выражается обеспокоенность по поводу растущего использования чат-ботов с искусственным интеллектом в детских игрушках, предупреждая, что некоторые из этих систем могут быть непригодны для юных пользователей. Согласно отчету , в ряде игрушек с ИИ используется технология чат-ботов, способная генерировать ответы, аналогичные тем, которые используются в ориентированных на взрослую аудиторию сервисах на основе ИИ, что потенциально может подвергать детей воздействию неприемлемого или вводящего в заблуждение контента.

В исследовании рассматривался ряд игрушек, в которых реализованы функции разговорного искусственного интеллекта, включая интерактивные куклы, роботов и образовательные гаджеты. Многие из этих продуктов позволяют детям общаться с игрушкой, которая отвечает на естественном языке, используя большие языковые модели, аналогичные тем, что применяются в широко распространенных чат-ботах с искусственным интеллектом.

Хотя технологии могут сделать игрушки более интерактивными и познавательными, исследователи PIRG утверждают, что встроенные в некоторые продукты средства защиты могут быть недостаточно надежными для защиты более молодой аудитории. В частности, в отчете подчеркивается, что базовые системы искусственного интеллекта часто создаются на платформах, разработанных в первую очередь для обычных пользователей, а не для детей.

Поэтому ответы ИИ, генерируемые этими игрушками, потенциально могут содержать информацию или темы разговора, которые больше подходят для взрослых, чем для детей. В отчете также предупреждается, что ИИ может выдавать неточные или непредсказуемые ответы, что может сбить с толку юных пользователей, которые склонны доверять игрушкам как надежным источникам информации.

Исследователи, изучавшие документацию и политику конфиденциальности игрушек, также обнаружили, что некоторые продукты в значительной степени полагаются на облачные системы искусственного интеллекта.

Это означает, что голосовые сообщения детей могут передаваться на внешние серверы, где данные обрабатываются и используются для генерации ответов. Защитники конфиденциальности говорят, что это вызывает дополнительные опасения по поводу того, как хранятся и используются данные детей. Некоторые игрушки могут собирать аудиозаписи, подсказки пользователей или другую личную информацию во время разговоров. Если эти системы не разработаны с учетом защиты конфиденциальности детей, данные могут быть использованы не по назначению или храниться без четких гарантий.

В отчете также отмечается, что многие игрушки с искусственным интеллектом содержат оговорки, скрытые в условиях обслуживания или документации к продукту. В этих оговорках иногда указывается, что ответы ИИ могут быть не всегда точными или уместными, фактически перекладывая ответственность на родителей, в то время как сама игрушка продается непосредственно детям.

Эта ситуация важна, потому что технологии искусственного интеллекта все чаще проникают в повседневные потребительские товары, в том числе в товары, разработанные специально для юной аудитории. Игрушки, имитирующие разговоры, могут оказывать сильное влияние на детей, которые часто воспринимают их как компаньонов или учебные пособия.

Эксперты говорят, что детям может быть трудно отличить достоверную информацию от сгенерированных искусственным интеллектом ответов, которые являются предположительными, предвзятыми или неверными. По мере дальнейшего развития систем искусственного интеллекта обеспечение их адаптации к требованиям безопасности детей будет становиться все более важным.

Полученные результаты также указывают на более широкую проблему регулирования.

Хотя во многих странах существуют законы, призванные защитить конфиденциальность детей в интернете, такие как Закон о защите конфиденциальности детей в интернете (COPPA) в Соединенных Штатах, эти правила были разработаны до появления генеративного искусственного интеллекта .

Правозащитные организации утверждают, что регулирующим органам, возможно, потребуется обновить стандарты и руководства по безопасности, чтобы учесть особенности взаимодействия систем искусственного интеллекта с детьми через подключенные устройства.

В отчете PIRG содержится призыв к производителям игрушек внедрить более строгие меры защиты, включая более жесткую фильтрацию контента, более четкое раскрытие информации об использовании ИИ и более прозрачные методы работы с данными. В нем также рекомендуется, чтобы компании разрабатывали системы ИИ специально для детей, а не перепрофилировали модели, изначально созданные для взрослой аудитории.

По мнению исследователей, в будущем для обеспечения инновационности и безопасности игрушек с искусственным интеллектом потребуется сотрудничество между технологическими компаниями, регулирующими органами и экспертами по безопасности детей.

По мере все большей интеграции искусственного интеллекта в повседневные продукты, задача будет заключаться в том, чтобы сбалансировать преимущества интерактивных технологий с ответственностью за защиту юных пользователей от потенциальных рисков.

Статья "Чат-боты с искусственным интеллектом, подходящие только для взрослых, по-прежнему появляются в детских игрушках" впервые появилась на сайте Digital Trends .