Дело не только в Grok: магазины приложений Apple и Google кишат приложениями с искусственным интеллектом, позволяющими пользователям демонстрировать обнаженное тело.

Мы склонны воспринимать Apple App Store и Google Play Store как цифровые «закрытые сады» — безопасные, тщательно отобранные пространства, где опасный или непристойный контент отфильтровывается задолго до того, как попадет на наши экраны. Но новый мрачный анализ, проведенный проектом Tech Transparency Project (TTP), предполагает, что в этих стенах есть серьезные трещины. Отчет раскрывает тревожную реальность: оба крупных магазина приложений в настоящее время кишат десятками приложений для «обнажения» с использованием искусственного интеллекта. Это не какие-то малоизвестные инструменты, спрятанные в даркнете; они находятся в открытом доступе, позволяя любому сделать безобидную фотографию человека и цифровым способом снять с него одежду без его согласия.

В начале этого года дискуссия вокруг этой технологии достигла апогея, когда искусственный интеллект Илона Маска, Grok, был пойман на создании аналогичных изображений сексуального характера на платформе X. Но хотя Grok стал объектом общественного возмущения, расследование TTP показывает, что это была лишь верхушка айсберга. Простой поиск в магазинах приложений по таким запросам, как «раздеться» или «обнажить», выдает целый список программ, специально разработанных для создания порнографии с использованием технологии дипфейк без согласия.

Масштабы этой отрасли, честно говоря, поражают воображение.

Речь идёт не о нескольких недобросовестных разработчиках, которые каким-то образом ускользнули от внимания регулирующих органов. Согласно данным, эти приложения в совокупности скачали более 700 миллионов раз. Они принесли примерно 117 миллионов долларов дохода. И вот неприятная правда: поскольку Apple и Google обычно берут комиссию с внутриигровых покупок и подписок, они фактически получают прибыль от создания изображений сексуального характера без согласия. Каждый раз, когда кто-то платит за то, чтобы «раздеть» фотографию одноклассника, коллеги или незнакомца, технологические гиганты получают свою долю.

Человеческие жертвы этой технологии невозможно переоценить. Эти инструменты превращают обычные фотографии в оружие. Селфи из Instagram или фотография из школьного альбома могут быть искажены и превращены в откровенный материал, используемый для преследования, унижения или шантажа жертв. Правозащитные организации уже много лет кричат ​​об этом, предупреждая, что «обнажение с помощью ИИ» — это форма сексуального насилия, которая непропорционально затрагивает женщин и, что особенно ужасно, несовершеннолетних.

Так почему же они до сих пор там?

И Apple, и Google имеют строгие правила на бумаге, запрещающие порнографический и эксплуатационный контент. Проблема в их соблюдении. Это превратилось в цифровую игру «Ударь крота». Когда появляется громкий отчет, компании могут заблокировать несколько конкретных приложений, но разработчики часто просто подправляют логотип, немного меняют название и через неделю загружают тот же самый код. Автоматизированные системы проверки, похоже, совершенно не способны угнаться за стремительным развитием генеративного ИИ.

Для родителей и обычных пользователей это тревожный сигнал. Мы больше не можем считать, что если приложение размещено в «официальном» магазине, оно безопасно или этично. По мере того, как инструменты искусственного интеллекта становятся все более мощными и доступными, меры защиты, на которые мы полагались раньше, перестают работать. Пока регулирующие органы не вмешаются — или пока Apple и Google не решат поставить безопасность выше комиссионных сборов — наши цифровые образы остаются уязвимыми и вызывают дискомфорт.

Статья " Дело не только в Grok: магазины приложений Apple и Google кишат приложениями с искусственным интеллектом, позволяющими демонстрировать обнаженное тело" впервые появилась на сайте Digital Trends .