Искусственный интеллект

США получат ранний доступ к новым AI-моделям Google, Microsoft и xAI: перед релизом их проверят на киберриски

Маша Даровская
By Маша Даровская , IT-редактор и автор
США получат ранний доступ к новым AI-моделям Google, Microsoft и xAI: перед релизом их проверят на киберриски
Обложка © Anonhaven

Американский центр CAISI при NIST заключил новые соглашения с Google DeepMind, Microsoft и xAI. Разработчики будут предоставлять доступ к ещё не выпущенным AI-моделям для проверок до публичного релиза. Оценивать будут не «качество ответов» в бытовом смысле, а риски для безопасности: кибервозможности, биобезопасность, химические угрозы, скрытые уязвимости и потенциальное злоупотребление моделями. Формально процесс остаётся добровольным, но для крупнейших AI-лабораторий США это уже становится новой нормой.

5 мая 2026 года National Institute of Standards and Technology (NIST) сообщил, что его Center for AI Standards and Innovation, или CAISI, расширяет сотрудничество с Google DeepMind, Microsoft и xAI. Центр будет проводить pre-deployment evaluations — проверки моделей до их вывода на рынок или в широкий публичный доступ.

CAISI работает внутри NIST и заявлен как основной контактный центр для индустрии внутри правительства США по вопросам тестирования коммерческих AI-систем, совместных исследований и разработки практик безопасности. В задачи центра входят добровольные соглашения с разработчиками, оценка моделей, которые могут создавать риски для национальной безопасности, проверка систем на киберугрозы, биориски, химические угрозы и возможное вредоносное поведение.

Соглашения с Google DeepMind, Microsoft и xAI дополняют более ранние договорённости с OpenAI и Anthropic. Washington Post пишет, что сделка развивает прежний механизм раннего тестирования моделей, который уже применялся к OpenAI и Anthropic.

Проверки не ограничатся обычными бенчмарками. CAISI должен понаблюдать, как модель ведёт себя в рискованных сценариях: помогает ли искать уязвимости, генерировать вредоносные инструкции, обходить защитные ограничения, усиливать фишинг, автоматизировать разведку или выполнять задачи, которые могут быть опасны за пределами лаборатории.

NIST указывает, что CAISI будет фокусироваться на «демонстрируемых рисках», включая кибербезопасность, биобезопасность и химическое оружие. Центр также должен оценивать модели иностранных разработчиков, распространение таких систем и состояние международной конкуренции в AI.

Nextgov уточняет важную деталь: в рамках оценок CAISI может изучать версии моделей с ослабленными или снятыми защитными ограничениями. Это нужно, чтобы понять не витринное поведение продукта, а реальные необработанные возможности модели до наложения пользовательских фильтров и политик безопасности.

За последние два года AI-модели из демонстрационных чат-ботов быстро превратились в инструменты для разработки, анализа кода, поиска ошибок и автоматизации рабочих процессов. Для защитников это плюс: модель может помогать с анализом логов, расследованием инцидентов, генерацией правил детекта и поиском слабых мест в коде.

Та же механика полезна и атакующим. Если модель умеет разбирать код, строить цепочки эксплуатации и писать рабочие фрагменты скриптов, её можно использовать для ускорения атак. Речь не обязательно о «суперинтеллекте»: даже обычное ускорение рутинных задач уже меняет экономику киберпреступности.

В классической безопасности давно есть принцип shift left: искать проблемы до продакшна, а не после. В AI этот подход сложнее. Модель не является обычной программой с предсказуемым набором функций. Её поведение зависит от промпта, контекста, цепочки инструментов, системных инструкций и встроенных ограничений.

Новые соглашения — не жёсткий запретительный механизм. Washington Post указывает: речь о раннем доступе, обмене информацией, добровольных улучшениях продукта и понимании возможностей моделей государственными экспертами.

При этом американские СМИ писали, что администрация США рассматривает отдельный механизм обязательных проверок AI-моделей до вывода на рынок. SecureWorld связывает новые добровольные соглашения с обсуждением более формального режима, но его параметры пока не раскрыты.

CAISI заявляет, что занимается не только будущими коммерческими релизами. Центр также оценивает иностранные модели и риски их использования. 1 мая 2026 года NIST сообщил об оценке открытой модели DeepSeek V4 Pro: CAISI сравнивал её с ведущими американскими системами и анализировал отставание по возможностям.

На странице CAISI перечислены направления работы: руководства и лучшие практики для измерения и повышения безопасности AI-систем, добровольные соглашения с разработчиками, оценка возможностей американских и иностранных моделей, анализ уязвимостей, риск скрытого вредоносного поведения и координация с другими ведомствами.

Отдельное направление — AI-агенты. NIST уже запустил AI Agent Standards Initiative: она посвящена стандартам для систем, которые могут действовать автономно, взаимодействовать с инструментами и выполнять цепочки задач. Это важно для безопасности, потому что агент с доступом к коду, облаку, почте или внутренним системам — уже не просто чат-бот, а участник инфраструктуры.

Проверки CAISI касаются крупнейших frontier-моделей, но последствия быстро дойдут до корпоративного рынка. Если государственные заказчики, критическая инфраструктура и крупные компании начнут требовать подтверждённых оценок безопасности AI-систем, поставщикам придётся показывать не только красивые демо, но и результаты тестирования.

Для CISO и команд безопасности это означает новую категорию вопросов к вендорам: как модель тестировалась до релиза, какие ограничения встроены, кто проверял агентные возможности, что происходит при подключении к коду и внутренним данным, как логируются действия, где проходит граница между подсказкой и самостоятельным выполнением операции.

Пока это не универсальный чек-лист и не единый обязательный стандарт. Но направление уже понятно: AI-системы будут оценивать ближе к критической инфраструктуре, а не как обычные SaaS-приложения с красивым интерфейсом.

Есть новость? Станьте автором.

Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.

Вопросы по теме

Что такое CAISI?
Center for AI Standards and Innovation — центр при NIST, который занимается тестированием, измерением и оценкой безопасности коммерческих AI-систем.
Какие компании попали в новые соглашения?
Google DeepMind, Microsoft и xAI. Ранее похожие договорённости уже были с OpenAI и Anthropic.
Модели будут проверять до релиза?
Да. Речь о pre-deployment evaluations — оценках до публичного запуска.
Это обязательная сертификация?
Пока нет. Текущий механизм описан как добровольное сотрудничество. Обязательный режим обсуждается, но его параметры публично не определены.
Что именно будут искать?
Кибервозможности, биориски, химические угрозы, уязвимости, вредоносное поведение, риски обхода защитных ограничений и сценарии злоупотребления.
Может ли CAISI запретить релиз модели?
Публичные данные не говорят о праве блокировать запуск. Проверки должны помогать выявлять риски и улучшать продукты до выпуска.