Исследование предупреждает, что агенты искусственного интеллекта могут стать самовоспроизводящейся пропагандистской машиной.
Новое исследование Университета Южной Калифорнии предупреждает, что программы искусственного интеллекта теперь могут проводить пропагандистские кампании без участия человека.
В исследовании предлагается представить себе ситуацию, когда за две недели до крупных выборов тысячи постов заполоняют X-платформы, Reddit и Facebook , продвигая одну и ту же идею и усиливая друг друга. Может показаться, что это органичное движение, созданное людьми. На самом деле, всю кампанию ведут агенты искусственного интеллекта.
Это не гипотетическая ситуация. Это главный вывод новой статьи, принятой к публикации на конференции The Web Conference 2026, написанной исследователями из Института информационных наук Университета Южной Калифорнии.
Полученные результаты вызывают серьезные опасения по поводу того, как злоумышленники могут использовать искусственный интеллект в качестве оружия для распространения дезинформации в интернете и манипулирования общественным мнением.
Как исследователи пришли к такому выводу?
Исследователи создали смоделированную среду, похожую на X, с 50 агентами ИИ, из которых 10 выступали в роли влиятельных лиц, а 40 — в роли обычных пользователей. Из 40 обычных агентов 20 имели взгляды, совпадающие с взглядами влиятельных лиц, а остальные 20 — взгляды, противоречащие кампании. Исследователи создали свою симуляцию, используя библиотеку PyAutogen, и запустили её на модели Llama 3.3 70B.
Затем операторам было поручено продвигать вымышленного кандидата с целью сделать хэштег кампании вирусным. То, что последовало дальше, оказалось тревожным. Боты не просто следовали сценарию. Они писали собственные посты, изучали, что работает, и копировали успешный контент друг друга.
Один из агентов ИИ буквально написал, что хочет ретвитнуть пост коллеги, потому что тот уже привлек внимание. Позже исследователи увеличили количество агентов ИИ до 500 и обнаружили, что результаты соответствуют их выводам.
Ведущий научный сотрудник Лука Лучери прямо заявил: «Наша статья показывает, что это не угроза будущего. Это уже технически возможно».
Что затрудняет обнаружение этих ботов?
Традиционные боты предсказуемы. Они публикуют один и тот же контент, используют одни и те же хэштеги и следуют одним и тем же шаблонам. Как будто все они действуют по одному и тому же сценарию, что делает их легко распознаваемыми.
Боты на базе ИИ — это совсем другое дело. Поскольку эти боты, работающие на основе знаний, полученных в магистратуре, могут создавать собственный контент, каждый пост немного отличается от предыдущего, а координация происходит незаметно, благодаря чему общение кажется подлинным. В результате получается дезинформационная кампания, которая может работать автономно с минимальным участием человека.
Наиболее тревожным результатом стало то, что простое указание ботам, кто их товарищи по команде, приводило к координации действий, почти такой же высокой, как и при активном совместном планировании.
Угроза не ограничивается выборами. Лучери предупреждает, что тот же сценарий может быть применен к здравоохранению, иммиграции и экономической политике — везде, где искусственно созданный консенсус может изменить общественное мнение.
Мы можем что-нибудь сделать, чтобы это остановить?
Подобные кампании сложно обнаружить и остановить отдельным пользователям. Исследователи возложили ответственность за пресечение таких скоординированных кампаний по распространению дезинформации на платформы, призывая их выходить за рамки анализа отдельных сообщений и сосредотачиваться на взаимодействии различных аккаунтов.
По мнению исследователей, скоординированное повторное распространение, быстрое взаимное усиление и сближение нарративов — все это поддающиеся обнаружению сигналы, даже если контент выглядит подлинным.
Честно говоря, искусственный интеллект открыл нам новый мир, и прежде чем он станет лучше, станет намного мрачнее.
Статья «Исследование предупреждает, что агенты ИИ могут быть самовоспроизводящейся пропагандистской машиной» впервые появилась на сайте Digital Trends .