Искусственный интеллект значительно ускорил распространение самых отвратительных форм оскорбительного контента в интернете, и родители не справляются с ситуацией.
Искусственный интеллект, несомненно, предоставил интернету множество полезных инструментов. Но он также дал новый мрачный импульс одной из самых ужасных форм насилия . Недавние отчеты и выводы надзорных органов указывают на ту же самую отвратительную закономерность: генеративный ИИ помогает преступникам создавать изображения сексуального насилия над детьми в более крупных масштабах.
Сейчас эти форматы становятся все более реалистичными, и с ними все сложнее работать платформам, регулирующим органам и группам по защите детей.
Как искусственный интеллект усугубляет масштаб проблемы и делает контент более экстремальным.
В феврале агентство Reuters сообщило, что количество сообщений о случаях сексуального насилия над детьми, созданных с помощью ИИ, за последние два года увеличилось более чем вдвое, а позже организация Internet Watch Foundation заявила, что только в 2025 году выявила 8029 таких изображений и видео, созданных с помощью ИИ. Эта мрачная картина также была представлена в отчете Bloomberg о том, как генеративный ИИ меняет ситуацию с материалами, содержащими материалы о сексуальном насилии над детьми в США.
Следователи теперь имеют дело не только с порнографическими изображениями и видео, созданными с помощью ИИ, но и с отредактированными изображениями реальных детей, а также с диалогами в чат-ботах, где преступники якобы ищут советы по совращению несовершеннолетних или разыгрывают ролевые игры с сексуальным насилием. Тем временем правоохранительные органы тратят время, пытаясь выяснить, является ли ребенок на изображении реальным, отредактированным с помощью цифровых технологий или полностью поддельным.
Реальные случаи становятся все более тревожными.
В докладе приводится пример из Миннесоты, касающийся Уильяма Майкла Хаслаха, школьного дежурного по столовой и регулировщика дорожного движения, обвиняемого в использовании инструментов искусственного интеллекта для цифровой обработки фотографий детей, сделанных им на работе и демонстрирующих их раздевание. Федеральные агенты выявили более 90 жертв и обнаружили на его устройствах почти 800 сгенерированных с помощью ИИ изображений сексуального характера. Это демонстрирует, как преступники все чаще используют обычные фотографии из социальных сетей для создания материалов откровенного характера.
Следователи тонут в объеме работы и неверных зацепках.
Масштабы проблемы быстро ухудшаются. Bloomberg сообщает, что в 2025 году NCMEC получила 1,5 миллиона сообщений о сексуальном насилии над детьми, связанном с использованием ИИ, по сравнению с 67 000 годом ранее и 4700 в 2023 году. В то же время, по словам следователей, автоматизированные системы модерации генерируют поток ненужных сообщений, перегружая и без того перегруженные оперативные группы. И каждый ошибочный звонок отнимает время, которое могло бы быть потрачено на помощь ребенку, находящемуся под непосредственной угрозой.