Министерство обороны США заключило соглашения с крупными технологическими компаниями для развёртывания ИИ-инструментов в закрытых военных сетях. В первоначальный список вошли Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection и SpaceX. Позже профильные издания сообщили, что к перечню добавили Oracle, поэтому речь уже идёт о восьми поставщиках, хотя первая публикация ведомства называла семь компаний.
Эти решения допускают к сетям Impact Level 6 и Impact Level 7. IL6 используют для секретных данных, IL7 обычно связывают с наиболее чувствительными закрытыми средами. Это попытка завести коммерческие модели в контур, где работают с оперативной информацией, аналитикой, планированием и поддержкой принятия политических решений.
Платформа GenAI[.]mil стала основой для этого. Её запустили 9 декабря 2025 года с Gemini for Government от Google Cloud. Инструменты сертифицировали для Controlled Unclassified Information — контролируемой несекретной информации — и уровня IL5. Ведомство заявляло, что система доступна сотрудникам, подрядчикам и военным, а обучение работе с ней проводят для всего персонала.
В феврале 2026 года к GenAI[.]mil подключили ChatGPT. Официальный релиз OpenAI описывает платформу как защищённую корпоративную ИИ-среду для 3 млн гражданских и военных сотрудников Минобороны США. Компания отдельно указала, что данные из GenAI.mil остаются в изолированной государственной среде и не используются для обучения публичных или коммерческих моделей OpenAI.
Сценарии применения: обобщение документов, подготовка контрольных списков, анализ заявок и контрактных материалов, поддержка планирования, поиск по внутренним данным, оценка рисков. Google Cloud в описании GenAI.mil приводил схожие примеры: краткие выжимки из регламентов, чек-листы по соответствию требованиям, извлечение ключевых условий из документов и подготовка оценок риска для оперативного планирования.
Для безопасности здесь появляется новая зона ответственности. ИИ в закрытой сети — это, в первую очередь, доступ к данным, журналам, внутренним документам, рабочим процессам и иногда к инструментам, которые инициируют действия. Ошибка модели в такой среде может превратиться в неверный вывод для аналитика, лишнюю рекомендацию в планировании или утечку чувствительного контекста через неправильно настроенную интеграцию.
Пентагон умышлено делает ставку на несколько компаний, а не на одного вендора. В списке есть облачные гиганты, разработчики моделей, производитель ускорителей и SpaceX. Такой набор снижает риски, но усложняет контроль: разные модели, политики безопасности, цепочки поставок и условия эксплуатации. Defense One описывает это как попытку избежать зависимости от одного поставщика и ускорить обработку данных, ситуационную осведомлённость и поддержку решений.
Anthropic в список не попала. SecurityWeek пишет, что компания оказалась за бортом после публичного спора и судебного конфликта вокруг условий применения ИИ в военных системах.
Есть новость? Станьте автором.
Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.