OpenAI 25 марта 2026 года объявила о запуске публичной программы Safety Bug Bounty — это отдельная линия bug bounty для случаев, когда проблема связана не с классической уязвимостью в коде, а с рисками злоупотребления, обхода защит и небезопасного поведения AI-систем. Компания сообщает, что новая программа нужна для поиска сценариев, которые могут привести к реальному вреду, даже если формально они не подходят под определение классической уязвимости безопасности.
Проще говоря, раньше основной акцент bug bounty делался на привычных для ИБ вещах: ошибках в инфраструктуре, доступах, логике авторизации, утечках и других технических уязвимостях. Теперь OpenAI официально выделила ещё одну категорию — специфические для ИИ сценарии риска. Речь идёт о случаях, когда модель, агент или связанный с ними продукт можно заставить действовать во вред, обходить ограничения или раскрывать чувствительные данные.
Читайте также:
GitHub добавил ИИ-поиск уязвимостей в Code Security
OpenAI прямо пишет, что Safety Bug Bounty дополняет существующую Security Bug Bounty, а не заменяет её. Если исследователь находит обычную техническую уязвимость, отчёт стоит отправлять в security-. Если же проблема связана с безопасностью использования модели, злоупотреблением поведением агента или другими рисками такого класса, то в safety-программу. При этом OpenAI заранее предупреждает: заявки будут разбирать обе команды, а при необходимости отчёт могут перенаправить из одной программы в другую в зависимости от сути проблемы.
В официальном описании OpenAI перечисляет несколько основных категорий Safety Bug Bounty.
Риски в агентных продуктах. Сюда входит, например, ситуация, когда вредоносный текст со стороны атакующего способен перехватить управление агентом. Ещё один указанный сценарий — утечка или вывод чувствительной информации. Отдельно указано, что речь идёт о случаях, когда агента можно заставить совершить вредное действие или раскрыть данные пользователя. Для таких кейсов компания даже задаёт порог воспроизводимости: поведение должно повторяться как минимум в 50% случаев.
- Действия агентного продукта в масштабе на сайте OpenAI, если такой продукт совершает запрещённые или потенциально вредные операции.
- Уязвимости, ведущие к раскрытию проприетарной информации OpenAI, в том числе данных, связанных с внутренними особенностями рассуждения модели.
- Проблемы целостности аккаунтов и платформы: обход ограничений, блокировок и банов.
Отдельно OpenAI пишет, что если исследователь обнаружил неописанную выше проблему, но она может навредить пользователю и для неё можно предложить чёткие, конкретные меры исправления, такой отчёт тоже могут рассмотреть в индивидуальном порядке.
Размеры выплат в публикации OpenAI подробно не раскрыты, но SecurityWeek со ссылкой на правила программы на Bugcrowd пишет, что исследователи могут получить до 7 500 долларов за воспроизводимые отчёты высокой серьёзности с понятными рекомендациями по устранению. При этом решение о награде и её размере остаётся за OpenAI.
Новая программа не появилась на пустом месте. Ещё в марте 2025 года OpenAI рассказывала о расширении своей Security Bug Bounty Program и повышении максимальной выплаты за исключительные критические находки до 100 тысяч долларов вместо прежних 20 тысяч. Тогда же компания подчёркивала, что развивает свою систему кибербезопасности по мере роста возможностей ИИ и появления новых классов угроз.
Есть новость? Станьте автором.
Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.