Cisco представила новый open-source инструмент для отслеживания происхождения ИИ-моделей и их компонентов. Речь идёт о системе, которая фиксирует, из каких данных, моделей и зависимостей собирается конкретный AI-продукт — фактически это аналог SBOM, но для искусственного интеллекта.
Инструмент входит в экосистему Cisco AI Defense и ориентирован на контроль цепочки поставок ИИ. Он помогает понять, какие модели используются, откуда они загружены, какие лицензии применяются и нет ли в них вредоносных компонентов.
Ключевая задача — закрыть одну из главных проблем современной ИИ-разработки: отсутствие прозрачности. В типичной системе могут одновременно использоваться десятки моделей, датасетов и библиотек, и их происхождение часто остаётся неочевидным даже для команды разработки.
Решение Cisco автоматизирует сбор «паспортов» для ИИ-систем — так называемых AI Bill of Materials (AI BOM). В них фиксируются используемые модели и их версии, источники данных и обучения, зависимости и внешние компоненты, лицензии и ограничения, а также потенциальные риски безопасности. Такая структура позволяет проверять модель до запуска — например, блокировать загрузку небезопасных или юридически проблемных моделей.
Индустрия быстро уходит в сторону open-source моделей и сложных ИИ-пайплайнов. Количество моделей уже исчисляется миллионами, а цепочки зависимостей становятся всё длиннее.
Проблема не только в безопасности. Без отслеживания происхождения невозможно проверить лицензию, понять источник ошибок или «галлюцинаций» и выполнить требования регуляторов; К примеру, европейский AI Act требует маркировать AI-контент и обеспечивать проверку его происхождения.
Новый инструмент — часть стратегии Cisco по открытию ИИ-безопасности. Компания уже публикует сканеры для ИИ-агентов и MCP-серверов. инструменты анализа поведения моделей. специализированные модели безопасности. Все они объединяются в платформу AI Defense, которая закрывает риски на уровне кода, моделей и инфраструктуры.
Cisco делает ставку на прозрачность AI-цепочек. Инструменты вроде AI BOM превращают ИИ в систему с проверяемой историей, что является базовым требованием для продакшена.
Есть новость? Станьте автором.
Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.