Все ли эти вирусные видеоролики “с поля боя в прямом эфире” созданы с помощью ИИ? Вот 5 советов, как избежать обмана.

«Мне не хватает тех времен, когда изображения в интернете всегда были точными… хотя, кажется, таких времен никогда и не было».
Новости о недавнем конфликте в Иране заполонили различные новостные ленты изображениями взрывов, сирен воздушной тревоги и других впечатляющих сцен. Однако большая часть «сообщений с поля боя», которые собрали бесчисленное количество лайков и репостов, на самом деле являются фейковыми.

▲Все эти видеоролики набрали более миллиона просмотров, но в конечном итоге было подтверждено, что они были созданы с помощью искусственного интеллекта.
Несколько проверенных аккаунтов в социальных сетях на платформе X опубликовали ряд фейковых видеороликов, созданных с помощью ИИ; однако в дополнительной информации все они упомянули о наличии в видеороликах очень явных признаков использования ИИ, таких как эффект дыма, искаженная поверхность воды и солнечные панели на крыше.
Некоторые из этих видеороликов сняты во время не связанных между собой старых конфликтов девятилетней давности, а другие представляют собой искусственные иллюзии, созданные с помощью ИИ. Самое абсурдное, что губернатор Техаса Грег Эбботт также ретвитнул видео из видеоигры, а затем быстро удалил его.
▲Сцена из симуляции видеоигры; этот видеоролик просмотрен более 7 миллионов раз | Источник видео: X@realJoelFischer
Это так называемое «видео с места событий», широко цитируемое в зарубежных социальных сетях, на самом деле было взято непосредственно из видеоигры на военную тематику.
Удивительно, что люди воспринимают в качестве новостей не только искусственный интеллект, но и видеозаписи игр. В 2026 году, с учетом стремительного развития ИИ в области создания изображений и видео, старая интернет-поговорка «картинка стоит тысячи слов» превратилась в полнейшую насмешку.
Подтверждено, что все эти посты, которыми поделились миллионы раз, представляют собой низкоуровневого искусственного интеллекта, созданного по образу и подобию монстра Франкенштейна.
Помимо множества видеороликов, внимание привлекло еще одно явление — спутниковое изображение, ставшее вирусным на X. В конце концов, кто потратит сотни миллионов на запуск спутника, чтобы потом с помощью фотошопа выложить изображение в интернет и обмануть меня?
На снимке изображена американская военная радиолокационная система в Катаре, превращенная в руины после атаки иранского беспилотника. Даже официальное издание иранского ведущего СМИ, Tehran Times, с энтузиазмом поделилось этой фотографией «результатов боя».

▲Источник изображения: X@TehranTimes79
Всего за 48 часов пост набрал более 1 миллиона просмотров. Однако эксперты по анализу открытых источников быстро выявили недостатки изображения.
После сравнения выяснилось, что это вовсе не радиолокационная база в Катаре, а территория в Бахрейне. Еще более абсурдно то, что изображение было насильно «создано» с помощью ИИ на основе старой фотографии годичной давности.
Как вы это выяснили? Некоторые пользователи сети обнаружили, что фотография сделана очень плохо при ближайшем рассмотрении. Хотя здание выглядит разрушенным, расположение припаркованных вокруг него автомобилей точно такое же, как и год назад. Еще более возмутительно то, что угол света и тени на так называемой фотографии «после взрыва» точно такой же, как на снимке, сделанном в солнечный день год назад.
Чтобы победить магию ИИ, по-прежнему достаточно выполнить эти пять простых шагов.
Хотя в настоящее время большая часть контента, созданного с помощью ИИ, должна иметь видимый или цифровой водяной знак, эту систему по-прежнему легко обойти.
В качестве примера возьмем изображения, сгенерированные Nano Banana. В официальных инструкциях указано, что будут добавлены водяной знак с логотипом Gemini и цифровой водяной знак Synth ID, невидимый невооруженным глазом. Однако в социальных сетях после многочисленных попыток создания скриншотов, обрезки и сжатия изображений Gemini практически не может распознать ранее внедренные водяные знаки.

▲Способы обхода водяного знака Synth ID уже доступны на Reddit.
1. Обращайте внимание на детали и замечайте все, что кажется подозрительным.
Некоторые спрашивают: раз недостатки в этих видео и изображениях, созданных с помощью ИИ, оказались настолько очевидными, почему их не заметили все вначале?
Причина на самом деле довольно проста: когда мы смотрим на лицо, созданное искусственным интеллектом, наш мозг инстинктивно ищет несоответствия — форму глаз, текстуру кожи и уши. Это биологический инстинкт, который мы развивали на протяжении миллионов лет.
Однако этот инстинкт подводит, когда смотришь на здание, дорогу и местность, сфотографированные с высоты сотен километров. Потому что никто не рождается с знанием того, как должна выглядеть разрушенная радиолокационная станция под сенсором с определенным разрешением.

В условиях недостатка доступной информации, эти незнакомые материалы, созданные искусственным интеллектом, естественно, становятся объективными фактами в глазах обычных людей.
Теперь, когда алгоритмы прекрасно умеют моделировать свет, тени и текстуру кожи, логика поиска недостатков изменилась. Речь идёт не просто об отказе от зависимости от системы отсчёта и поиске технических ошибок, а об выявлении логических несоответствий в реальности.
Например, неуместные архитектурные стили на заднем плане или незначительные, нелогичные действия персонажей.

▲Непроверенное фото
После ареста Мадуро некоторое время назад в социальных сетях широко распространились несколько его «фотографий в плену». Группы экспертов зарубежных СМИ быстро обнаружили, что эти снимки вызывают подозрения: дизайн иллюминатора самолета не соответствовал реальной модели самолета, а одежда Мадуро на двух фотографиях отличалась.
Хотя прямых доказательств подделки нет, эти сомнения побудили СМИ отказаться от публикации фотографий.
2. Тот, кто отправляет сообщение, важнее самого сообщения.
Личность человека, разместившего фотографию, зачастую рассказывает больше, чем само содержание.

Предполагаемое фото убийства Хаменеи набрало 5,5 миллионов просмотров в социальных сетях, но владелец аккаунта в разделе «О нас» на своем веб-сайте заявляет: «SilverTrade.com стремится предоставлять наиболее точные, содержательные и своевременные отчеты об индустрии драгоценных металлов».
Даже после публикации фотографии Мадуро на сайте Truth Social, ряд новостных изданий по-прежнему сомневаются в её подлинности.
В конечном итоге большинство СМИ предпочли процитировать весь пост в виде скриншота, а не показывать только фотографию, что создавало ощущение «недоверия, но при этом имело информационную ценность».
3. Отслеживайте цифровые следы; исторические записи не лгут.
Наиболее распространенный метод, используемый ИИ для создания фейковых новостей, — это «переработка» старого материала. Используя обратный поиск изображений в поисковых системах, таких как Google и TinEye, или даже проверяя метаданные изображений (например, время съемки и модель устройства), можно быстро определить, является ли контент фейковым.

▲https://tineye.com/

Например, это классическое сфабрикованное изображение легко обмануло ряд СМИ, просто использовав уже существующую фотографию, скопировав и переместив её.
4. Проверьте ключевую справочную информацию, учитывая время и место.
Если мы видим видео, в котором утверждается, что оно было снято в определенном месте, мы можем проверить, соответствует ли видеозапись этому месту, используя Google Maps или спутниковые снимки.

▲Google Earth предоставляет полные исторические изображения и виды улиц.
Также можно использовать SunCalc для приблизительной оценки времени съемки, наблюдая за направлением теней на изображении. Если кто-то утверждает, что сделал фотографию прошлой ночью, но тени указывают на то, что она была сделана в полдень, это почти наверняка подделка.

▲ В сообществе фотографов SunCalc также является географическим сайтом, который точно рассчитывает положение солнца и луны, чтобы определить «золотой час» для фотосъемки.
5. Используйте углублённые исследования, чтобы дать ИИ возможность бороться с ИИ.
Практически все современные инструменты искусственного интеллекта обладают собственными возможностями глубокого обучения. Например, когда мы подводили итоги битвы ИИ во время Весеннего фестиваля, мы использовали функцию глубокого обучения ChatGPT в течение получаса, чтобы обобщить для нас эту информацию.

Преимущество углубленного исследования заключается в том, что каждое предложение, сгенерированное ИИ, сопровождается ссылкой на источник, что позволяет напрямую увидеть, откуда взята информация и какова её природа. Если требуется высокая точность данных, можно также добавить следующее замечание: «Для каждого вывода дайте оценку достоверности».
Однако следует отметить , что углублённые исследования могут быть надёжными, в то время как общие вопросы и ответы — нет.
Если напрямую спросить у ИИ: «Правда ли эта новость?», он иногда смешивает случайные предположения, опубликованные в социальных сетях, с официальными сообщениями, давая нам, казалось бы, правдоподобный, но неверный ответ. По крайней мере, углубленное исследование позволяет получить доступ к первоисточнику и составить собственное мнение.

▲Можете ли вы определить, какая из этих двух фотографий настоящая?
Например, когда мы напрямую передаем эти два изображения в ИИ и спрашиваем: «Было ли это изображение создано ИИ?»

Компания Gemini заявила, что оба изображения, скорее всего, основаны на одном и том же исходном изображении и были созданы с помощью постобработки или замены цвета с помощью ИИ. ChatGPT и Doubao сообщили мне, что красное изображение, скорее всего, было создано с помощью ИИ.
Сейчас доступно множество специализированных инструментов для обнаружения подделки изображений. Несколько дней назад некоторые пользователи сети протестировали более десяти инструментов обнаружения контента с использованием ИИ, представленных на рынке (включая hivedetect.ai, aioornot.com, copyleaks.com и некоторые общие инструменты ИИ), и результаты более 1000 тестов показали…
Магия не может победить магию; использование ИИ для обнаружения ИИ — обреченная на провал фантазия.

▲Источник изображения: статья в NYT (Эти инструменты утверждают, что могут выявлять подделки, созданные с помощью ИИ. Действительно ли они работают?)
Инструменты обнаружения на основе ИИ могут служить ориентиром; они могут указать нам направление, но не могут выносить прямые суждения.
Когда компания Adobe отмечала 25-летие Photoshop, она запустила веб-сайт для проверки подлинности изображений. Все желающие могут ознакомиться с ним. В то время, используя только Photoshop, уже можно было создавать изображения, которые было трудно различить, не говоря уже о современных мощных технологиях искусственного интеллекта.

▲ Как отличить отфотошопленные изображения от настоящих: https://landing.adobe.com/en/na/products/creative-cloud/69308-real-or-photoshop/index.html
«Пусть пули какое-то время летят».
В ответ на недавнее распространение фейковых изображений и новостей, созданных с помощью ИИ, платформы социальных сетей начали принимать меры.
Начиная с сегодняшнего дня, у авторов контента на платформе X, загружающих видеоролики, созданные с помощью ИИ, без маркировки «создано ИИ», будет приостановлена программа распределения доходов от авторских прав на 90 дней. В случае повторного нарушения этого правила им будет навсегда запрещено получать доход от рекламы на платформе.
Доходы от платформы X всегда были значительными, и многие самобытные медиа-ресурсы, использующие искусственный интеллект, одновременно обновляются на X. В начале года X также обновил свою программу поощрения контента, распределяя доходы в зависимости от количества появлений контента на главной странице, а также поощряя создание длинных статей.

▲Никита Бир, менеджер по продуктам компании X, сообщила, что намерена изменить механизм распределения доходов между создателями контента.
Объявление о новых правилах вызвало возмущение среди создателей контента и пользователей X. Некоторые поддержали его, заявив: «Наконец-то что-то делается!» Но другие задались вопросом: «Почему преследуют только видео, связанные с конфликтами? Разве фейковый контент в других областях не наносит различного вреда?»
Я подозреваю, что даже если эти меры охватят фейковые новости в различных секторах, их реальная эффективность, скорее всего, будет не слишком оптимистичной. В конце концов, пользователи могут легко перепостить контент, используя другие учетные записи, а модерация контента на платформе далеко не успевает за скоростью распространения фейковых изображений.
В статье издания The Verge, в которой берется интервью у эксперта по фейковым новостям, упоминалось, что «обычные люди должны понимать, что современная цифровая среда по своей сути предвзята в отношении манипуляций и обмана».
Сейчас, похоже, главная проблема заключается в том, что мы по-прежнему недостаточно бдительны в отношении вымыслов, созданных искусственным интеллектом. Но обычным людям было бы слишком сложно проверять факты в каждой отдельной новости.

Проще всего проявить терпение. Фраза из фильма Цзян Вэня: «Пусть пули летят какое-то время», — отражает самый трезвый и нетрадиционный подход, который мы можем использовать, находясь под влиянием алгоритмов.
#Добро пожаловать на официальный аккаунт iFanr в WeChat: iFanr (идентификатор WeChat: ifanr), где вы сможете быстро найти еще больше интересного контента.
ifanr | Оригинальная ссылка · Посмотреть комментарии · Sina Weibo
