Искусственный интеллект способствовал распространению одного из самых ужасных видов оскорбительного контента в интернете.

Хотя прогресс в области искусственного интеллекта принес множество полезных инструментов , он также усиливает проявление некоторых самых темных уголков интернета.

Новый доклад организации IWF (Internet Watch Foundation) выявил резкий рост количества созданных с помощью ИИ материалов с изображением сексуального насилия над детьми в интернете в 2025 году. Он подчеркивает масштабы злоупотребления генеративным ИИ. И это не просто небольшой скачок; это доказательство того, как создается и распространяется подобный контент.

Почему эта новость вызывает тревогу

Согласно данным IWF, в 2025 году было выявлено более 8000 изображений и видеороликов с ненормативной лексикой, созданных с помощью ИИ, что на 14% больше, чем годом ранее. Но еще большее беспокойство вызывает рост количества видеоконтента. В отчете говорится о более чем 260-кратном увеличении числа видеороликов, созданных с помощью ИИ, многие из которых относятся к наиболее серьезным видам насилия.

Фактически, около 65% проанализированных видеороликов были отнесены к наиболее экстремальным. Это подчеркивает, насколько серьезной стала эта проблема.

Как искусственный интеллект снижает барьер для вредоносного контента

Самое существенное изменение заключается даже не в объеме, а в доступности.

Эксперты утверждают, что инструменты генеративного искусственного интеллекта значительно упрощают создание реалистичных материалов, содержащих сцены насилия. Некоторые из этих систем могут генерировать реалистичные изображения и видео, манипулировать существующими фотографиями, создавать контент в больших масштабах с минимальными усилиями. Такое сочетание позволяет злоумышленникам создавать и распространять вредоносные материалы быстрее и дешевле, чем когда-либо прежде.

Раньше подобный опасный контент обычно ассоциировался с даркнетом . Но в отчете подчеркивается, что значительная часть контента, созданного с помощью ИИ, теперь обнаруживается в открытом интернете, а не ограничивается скрытыми уголками сети. Это затрудняет обнаружение, усложняет модерацию и увеличивает риск утечки.

Почему нет простого решения

Контент, созданный с помощью ИИ, создает новые сложности для правоохранительных органов и платформ. Поскольку материал может быть полностью синтетическим или полученным из реальных изображений, отслеживание происхождения или идентификация жертв становятся намного сложнее. Удаление такого контента — еще одна проблема. В условиях быстрого развития инструментов ИИ средства защиты часто отстают от прогресса.