Искусственный интеллект

ИИ-агенты вычисляют владельцев анонимных аккаунтов с точностью 68% за $1-4 на человека

Дарья Морозова
By Дарья Морозова , Tech-журналист, аналитик
ИИ-агенты вычисляют владельцев анонимных аккаунтов с точностью 68% за $1-4 на человека
Обложка © Anonhaven

Большие языковые модели (LLM) способны массово раскрывать владельцев анонимных аккаунтов в соцсетях. Исследователи из ETH Zurich и Anthropic опубликовали статью 18 февраля 2026 года, в которой ИИ-агент правильно сопоставил 226 из 338 анонимных профилей Hacker News с реальными людьми на LinkedIn. Число кандидатов для сопоставления составляло 89 000 человек, стоимость одной идентификации не превысила $4.

Сначала LLM читает посты анонимного пользователя и извлекает биографические зацепки. Город, профессию, интересы, характерные мелочи вроде клички собаки или любимого парка. Затем система превращает профили всех кандидатов в числовые представления (embeddings) и отбирает 100 ближайших по смысловому сходству. На финальном шаге другая LLM проверяет совпадения по каждой детали и выставляет оценку достоверности.

Точность составила 90%, полнота 67%. Из 338 аккаунтов агент ошибся 25 раз и в 86 случаях отказался от ответа. Весь эксперимент обошёлся менее чем в $2 000.

Удивительно, как мало информации нужно, чтобы связать два аккаунта.

— Даниэль Палека, соавтор исследования, ETH Zurich (интервью GovInfoSecurity)

Каждый шаг по отдельности выглядит безобидно. Пересказ текста, создание числовых представлений, ранжирование похожих профилей, проверка совпадений. Ни один из этих шагов не содержит ничего запрещённого. Именно поэтому подобную атаку трудно обнаружить и заблокировать на уровне платформы или модели.

Авторы сравнили свой метод с классической атакой на Netflix Prize (Арвинд Нараянан и Виталий Шматиков 2006-2007). На тех же данных классический подход дал менее 5% правильных совпадений. Разница в том, что классика требовала структурированных данных (оценки фильмов, таблицы), а LLM работает с обычным текстом постов и комментариев.

Наши ИИ-агенты делают то, что раньше было очень трудно. Начинают со свободного текста и добираются до полной личности человека.

— Саймон Лермен, ведущий автор (MATS), интервью Ars Technica

Николас Карлини (Nicholas Carlini) из Anthropic вошёл в число шести соавторов статьи. Anthropic предоставил для эксперимента набор анонимизированных интервью с 125 учёными (внутренний проект Interviewer). Несмотря на предварительное удаление имён и прямых идентификаторов, агент раскрыл личности девяти человек.

При росте числа кандидатов точность снижается плавно. На базе в 1 000 человек агент верно идентифицировал 68% при 90% точности. На 89 000 показатель опустился до 55%. Авторы экстраполировали результаты на 100 миллионов пользователей и пришли к выводу, что с ростом вычислительных мощностей и улучшением моделей метод останется работоспособным.

Палека в интервью GovInfoSecurity отметил, что с каждым новым поколением моделей деанонимизация работает всё лучше. Но добавил, что разработчики могут замедлить этот процесс, если научат модели отказывать в подобных запросах.

Авторы рекомендуют платформам ограничить массовую выгрузку данных и отслеживать автоматический сбор информации. Пользователям, которые ценят анонимность, не стоит использовать одни и те же биографические детали на разных площадках и связывать анонимные аккаунты с реальными через ссылки, перекрёстные упоминания или повторяющиеся формулировки.

Anthropic LLM OSINT Анонимность деанонимизация ИИ Искусственный интеллект Приватность

Есть новость? Станьте автором.

Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.

Вопросы по теме

Могут ли ИИ-модели раскрыть владельца анонимного аккаунта?
По данным исследования ETH Zurich и Anthropic (февраль 2026), LLM-агенты правильно сопоставляют анонимные аккаунты с реальными профилями в 68% случаев при 90% точности. Стоимость одной идентификации не превышает $4, весь эксперимент обошёлся менее чем в $2 000.