Производители ChatGPT и Gemini находятся под следствием из-за риска для детей, связанного с использованием ИИ-чатботов

Похоже, настал момент расплаты для чат-ботов с искусственным интеллектом. После многочисленных сообщений о проблемном поведении и смертельных случаях, связанных с взаимодействием детей и подростков с чат-ботами с искусственным интеллектом, правительство США наконец вмешалось. Федеральная торговая комиссия (FTC) сегодня обратилась к разработчикам популярных чат-ботов с искусственным интеллектом с просьбой подробно описать, как именно они тестируют и оценивают пригодность этих «компаньонов для детей».

Что происходит?

Подчеркивая, что такие сервисы, как ChatGPT , Gemini и Meta, могут имитировать человеческое общение и личные отношения, агентство отмечает, что эти чат-боты на основе искусственного интеллекта помогают подросткам и детям строить доверительные отношения и отношения. Теперь FTC пытается понять, как компании, стоящие за этими инструментами, оценивают аспект безопасности и ограничивают негативное воздействие на молодую аудиторию.

В письме, адресованном технологическим гигантам, разрабатывающим чат-боты на основе искусственного интеллекта, Федеральная торговая комиссия (FTC) задала им вопросы о целевой аудитории их ИИ-компаньонов, связанных с ними рисках и о том, как обрабатываются данные. Агентство также запросило разъяснения относительно того, как эти компании «монетизируют взаимодействие с пользователями; обрабатывают пользовательские данные; передают пользовательские данные третьим сторонам; генерируют результаты; измеряют, тестируют и отслеживают негативные последствия до и после внедрения; разрабатывают и утверждают персонажей, как созданных компанией, так и пользователями».

Агентство просит Meta, Alphabet (материнскую компанию Google), Instagram, Snap, xAI и OpenAI ответить на запросы, касающиеся чат-ботов на основе искусственного интеллекта и их соответствия Закону о защите конфиденциальности детей в Интернете. «Исследование, которое мы запускаем сегодня, поможет нам лучше понять, как компании, разрабатывающие ИИ, разрабатывают свои продукты и какие шаги они предпринимают для защиты детей», — заявил председатель FTC Эндрю Н. Фергюсон.

Назревает еще больше событий

Проблема, поднятая Федеральной торговой комиссией (FTC), — это большой шаг вперёд на пути к привлечению компаний, разрабатывающих ИИ, к ответственности за безопасность чат-ботов. Ранее в этом месяце расследование некоммерческой организации Common Sense Media показало, что чат-бот Gemini от Google представляет высокий риск для детей и подростков . В ходе испытаний было замечено, что Gemini выдаёт юным пользователям контент, связанный с сексом, наркотиками, алкоголем и небезопасными рекомендациями по вопросам психического здоровья. Несколько недель назад чат-бот Meta от ИИ был замечен в поддержке планов самоубийства.

В другом штате Калифорния был принят законопроект, направленный на регулирование чат-ботов на основе искусственного интеллекта. Законопроект SB 243 был принят при двухпартийной поддержке и обязывает компании, занимающиеся разработкой ИИ, разрабатывать протоколы безопасности и нести ответственность в случае причинения вреда пользователям. Законопроект также обязывает чат-ботов на основе искусственного интеллекта регулярно предупреждать о рисках и ежегодно раскрывать информацию о своей прозрачности.

Встревоженная недавними случаями гибели людей под воздействием чат-ботов на основе искусственного интеллекта, компания ChatGPT вскоре получит родительский контроль и систему оповещения для опекунов, когда их юные подопечные проявляют признаки серьёзного стресса. Компания Meta также внесла изменения, чтобы её чат-боты на основе искусственного интеллекта избегали разговоров на деликатные темы.