Антропологические исследования показывают, что ИИ может привести к массовому раскрытию анонимных интернет-аккаунтов.
Новое исследование, проведенное учеными из Anthropic и ETH Zurich, предполагает, что современные системы искусственного интеллекта могут идентифицировать реальные личности, стоящие за якобы анонимными интернет-аккаунтами. Исследование, опубликованное в виде препринта на arXiv , показывает, что большие языковые модели (LLM) могут анализировать онлайн-активность и связывать псевдонимные профили с реальными людьми в больших масштабах.
Исследование под названием «Масштабная онлайн-деанонимизация с помощью LLM» изучает, как агенты искусственного интеллекта могут автоматизировать процесс деанонимизации — процесс сопоставления анонимных или псевдонимных онлайн-аккаунтов с реальными личностями. Традиционно этот процесс требовал значительного ручного анализа со стороны аналитиков, которые изучали сообщения, стиль письма и разрозненные онлайн-подсказки. Однако исследователи демонстрируют, что современные модели ИИ могут выполнять многие из этих шагов автоматически.
В ходе исследования система искусственного интеллекта проанализировала общедоступный текст с онлайн-платформ и извлекла сигналы, связанные с идентификацией, такие как личные интересы, демографические данные, стиль письма и случайные детали, раскрытые в сообщениях. Затем ИИ искал соответствующие профили в интернете и оценивал, соответствуют ли эти данные известным людям.
Для проверки метода исследователи создали несколько наборов данных с известными эталонными значениями.
В одном эксперименте предпринималась попытка сопоставить пользователей Hacker News с их профилями LinkedIn, даже после удаления очевидных идентификаторов, таких как имена и никнеймы. Другой набор данных включал в себя сопоставление псевдонимных учетных записей Reddit из разных сообществ. Третий набор данных разделил историю публикаций одного пользователя на два отдельных профиля, чтобы проверить, сможет ли ИИ определить, что они принадлежат одному и тому же человеку.
Результаты показали, что системы на основе LLM значительно превосходят традиционные методы деанонимизации. В некоторых случаях модели достигали до 68% полноты при точности около 90%, что означает, что ИИ правильно идентифицировал множество учетных записей, сохраняя при этом относительно низкий уровень ошибок. Традиционные методы в тех же экспериментах показали практически нулевой успех.
Исследователи утверждают, что полученные результаты показывают, как ИИ может воспроизводить задачи, которые раньше требовали многочасовой работы от следователей-людей. Система ИИ может автоматически извлекать из текста признаки, связанные с личностью, искать потенциальные совпадения среди тысяч профилей и определять, какой кандидат, скорее всего, является правильным.
Это событие имеет важное значение, поскольку анонимность долгое время считалась базовой защитой для многих пользователей интернета.
Псевдонимные аккаунты широко используются журналистами, информаторами, активистами и обычными людьми, которые хотят обсуждать деликатные темы, не раскрывая свою настоящую личность.
Исследование предполагает, что этот уровень защиты — иногда называемый «практической непрозрачностью» — может ослабевать по мере того, как системы искусственного интеллекта совершенствуются в сопоставлении цифровых улик на разных платформах. Если автоматизированные инструменты смогут выполнять эту работу быстро и дешево, барьер для идентификации анонимных пользователей может значительно снизиться.
По оценкам исследователей, стоимость идентификации онлайн-аккаунта с помощью их экспериментальной методики может составлять от 1 до 4 долларов за профиль, что означает, что крупномасштабные расследования могут проводиться относительно недорого.
Однако авторы также отмечают, что исследование проводилось в контролируемых условиях с использованием общедоступных данных. Статья еще не прошла рецензирование, и исследователи намеренно утаили некоторые технические детали, чтобы снизить риск неправомерного использования.
Тем не менее, полученные результаты уже вызвали дискуссию среди экспертов по вопросам конфиденциальности и специалистов в области технологий.
Результаты исследования показывают, что людям, возможно, следует переосмыслить объем личной информации, которую они раскрывают в интернете, — даже в тех местах, которые кажутся анонимными. Исследователи отмечают необходимость дальнейшей работы для понимания как рисков, так и возможных способов защиты от деанонимизации с помощью ИИ. Потенциальные решения могут включать в себя улучшенные инструменты обеспечения конфиденциальности, более надежную защиту платформ или системы ИИ, предназначенные для анонимизации конфиденциальных данных до их публичного распространения.
По мере того как искусственный интеллект становится все более способным анализировать огромные объемы онлайн-контента, исследование подчеркивает растущую проблему: как сбалансировать возможности поиска информации с помощью ИИ с необходимостью защиты личной конфиденциальности в цифровую эпоху.
Статья «Антропологические исследования показывают, что ИИ может массово раскрывать анонимные интернет-аккаунты» впервые появилась на сайте Digital Trends .