Исследование предупреждает, что агенты искусственного интеллекта могут стать самовоспроизводящейся пропагандистской машиной.

Новое исследование Университета Южной Калифорнии предупреждает, что программы искусственного интеллекта теперь могут проводить пропагандистские кампании без участия человека.

В исследовании предлагается представить себе ситуацию, когда за две недели до крупных выборов тысячи постов заполоняют X-платформы, Reddit и Facebook , продвигая одну и ту же идею и усиливая друг друга. Может показаться, что это органичное движение, созданное людьми. На самом деле, всю кампанию ведут агенты искусственного интеллекта.

Это не гипотетическая ситуация. Это главный вывод новой статьи, принятой к публикации на конференции The Web Conference 2026, написанной исследователями из Института информационных наук Университета Южной Калифорнии.

Полученные результаты вызывают серьезные опасения по поводу того, как злоумышленники могут использовать искусственный интеллект в качестве оружия для распространения дезинформации в интернете и манипулирования общественным мнением.

Как исследователи пришли к такому выводу?

Исследователи создали смоделированную среду, похожую на X, с 50 агентами ИИ, из которых 10 выступали в роли влиятельных лиц, а 40 — в роли обычных пользователей. Из 40 обычных агентов 20 имели взгляды, совпадающие с взглядами влиятельных лиц, а остальные 20 — взгляды, противоречащие кампании. Исследователи создали свою симуляцию, используя библиотеку PyAutogen, и запустили её на модели Llama 3.3 70B.

Затем операторам было поручено продвигать вымышленного кандидата с целью сделать хэштег кампании вирусным. То, что последовало дальше, оказалось тревожным. Боты не просто следовали сценарию. Они писали собственные посты, изучали, что работает, и копировали успешный контент друг друга.

Один из агентов ИИ буквально написал, что хочет ретвитнуть пост коллеги, потому что тот уже привлек внимание. Позже исследователи увеличили количество агентов ИИ до 500 и обнаружили, что результаты соответствуют их выводам.

Ведущий научный сотрудник Лука Лучери прямо заявил: «Наша статья показывает, что это не угроза будущего. Это уже технически возможно».

Что затрудняет обнаружение этих ботов?

Традиционные боты предсказуемы. Они публикуют один и тот же контент, используют одни и те же хэштеги и следуют одним и тем же шаблонам. Как будто все они действуют по одному и тому же сценарию, что делает их легко распознаваемыми.

Боты на базе ИИ — это совсем другое дело. Поскольку эти боты, работающие на основе знаний, полученных в магистратуре, могут создавать собственный контент, каждый пост немного отличается от предыдущего, а координация происходит незаметно, благодаря чему общение кажется подлинным. В результате получается дезинформационная кампания, которая может работать автономно с минимальным участием человека.

Наиболее тревожным результатом стало то, что простое указание ботам, кто их товарищи по команде, приводило к координации действий, почти такой же высокой, как и при активном совместном планировании.

Угроза не ограничивается выборами. Лучери предупреждает, что тот же сценарий может быть применен к здравоохранению, иммиграции и экономической политике — везде, где искусственно созданный консенсус может изменить общественное мнение.

Мы можем что-нибудь сделать, чтобы это остановить?

Подобные кампании сложно обнаружить и остановить отдельным пользователям. Исследователи возложили ответственность за пресечение таких скоординированных кампаний по распространению дезинформации на платформы, призывая их выходить за рамки анализа отдельных сообщений и сосредотачиваться на взаимодействии различных аккаунтов.

По мнению исследователей, скоординированное повторное распространение, быстрое взаимное усиление и сближение нарративов — все это поддающиеся обнаружению сигналы, даже если контент выглядит подлинным.

Честно говоря, искусственный интеллект открыл нам новый мир, и прежде чем он станет лучше, станет намного мрачнее.

Статья «Исследование предупреждает, что агенты ИИ могут быть самовоспроизводящейся пропагандистской машиной» впервые появилась на сайте Digital Trends .