Искусственный интеллект

Husn Canaries: как отследить утечку корпоративного кода в ChatGPT и Copilot

Адриан Ванс
By Адриан Ванс , Журналист
Husn Canaries: как отследить утечку корпоративного кода в ChatGPT и Copilot
Image by Anonhaven

Представлен новый инструмент Husn Canaries, который пытается закрыть боль почти любой команды разработки: неконтролируемую отправку кода в облачные ИИ-сервисы. Это то, что обычно называют Shadow AI, когда программист ради скорости копирует кусок внутреннего кода в Copilot, ChatGPT или Claude, а компания узнает об этом только постфактум.

инструмент Husn Canaries

Риск здесь не в том, что разработчики используют ИИ, а в том, что процесс становится непрозрачным. В зависимости от политики провайдера и настроек аккаунта фрагменты могут оставаться в логах, попадать в историю запросов, а иногда использоваться для улучшения моделей. Для бизнеса это уже не абстрактная приватность, а вопрос интеллектуальной собственности и соблюдения внутренних правил.

Husn Canaries предлагает простой прием: внедрять в кодовую базу специальные маркеры, канарейки. Они выглядят как обычные фрагменты или сигнатуры в коде, но настроены так, чтобы срабатывать, если этот кусок окажется в запросе к внешней модели или в ответе от нее. В этот момент служба безопасности получает сигнал и понимает, что именно ушло наружу и через какой сервис.

Смысл инструмента в том, чтобы не превращать борьбу с ИИ в запреты и охоту на ведьм, а сделать картину видимой. Кто реально использует нейросети, какие участки кода чаще всего утекают, и куда они уходят. Для AppSec-команд это способ управлять риском и разговаривать с разработчиками на языке фактов, а не подозрений.

AppSec ChatGPT Copilot Husn Canaries Shadow AI Искусственный интеллект Разработка