Искусственный интеллект

OpenAI запустила Safety Bug Bounty: теперь можно сообщать не только о взломах, но и о рисках злоупотребления ИИ

Маша Даровская
By Маша Даровская , IT-редактор и автор
OpenAI запустила Safety Bug Bounty: теперь можно сообщать не только о взломах, но и о рисках злоупотребления ИИ
Обложка © Anonhaven

OpenAI 25 марта 2026 года объявила о запуске публичной программы Safety Bug Bounty — это отдельная линия bug bounty для случаев, когда проблема связана не с классической уязвимостью в коде, а с рисками злоупотребления, обхода защит и небезопасного поведения AI-систем. Компания сообщает, что новая программа нужна для поиска сценариев, которые могут привести к реальному вреду, даже если формально они не подходят под определение классической уязвимости безопасности.

Проще говоря, раньше основной акцент bug bounty делался на привычных для ИБ вещах: ошибках в инфраструктуре, доступах, логике авторизации, утечках и других технических уязвимостях. Теперь OpenAI официально выделила ещё одну категорию — специфические для ИИ сценарии риска. Речь идёт о случаях, когда модель, агент или связанный с ними продукт можно заставить действовать во вред, обходить ограничения или раскрывать чувствительные данные.

OpenAI прямо пишет, что Safety Bug Bounty дополняет существующую Security Bug Bounty, а не заменяет её. Если исследователь находит обычную техническую уязвимость, отчёт стоит отправлять в security-. Если же проблема связана с безопасностью использования модели, злоупотреблением поведением агента или другими рисками такого класса, то в safety-программу. При этом OpenAI заранее предупреждает: заявки будут разбирать обе команды, а при необходимости отчёт могут перенаправить из одной программы в другую в зависимости от сути проблемы.

В официальном описании OpenAI перечисляет несколько основных категорий Safety Bug Bounty.

Риски в агентных продуктах. Сюда входит, например, ситуация, когда вредоносный текст со стороны атакующего способен перехватить управление агентом. Ещё один указанный сценарий — утечка или вывод чувствительной информации. Отдельно указано, что речь идёт о случаях, когда агента можно заставить совершить вредное действие или раскрыть данные пользователя. Для таких кейсов компания даже задаёт порог воспроизводимости: поведение должно повторяться как минимум в 50% случаев.

  • Действия агентного продукта в масштабе на сайте OpenAI, если такой продукт совершает запрещённые или потенциально вредные операции. 
  • Уязвимости, ведущие к раскрытию проприетарной информации OpenAI, в том числе данных, связанных с внутренними особенностями рассуждения модели.
  • Проблемы целостности аккаунтов и платформы: обход ограничений, блокировок и банов.

Отдельно OpenAI пишет, что если исследователь обнаружил неописанную выше проблему, но она может навредить пользователю и для неё можно предложить чёткие, конкретные меры исправления, такой отчёт тоже могут рассмотреть в индивидуальном порядке. 

Размеры выплат в публикации OpenAI подробно не раскрыты, но SecurityWeek со ссылкой на правила программы на Bugcrowd пишет, что исследователи могут получить до 7 500 долларов за воспроизводимые отчёты высокой серьёзности с понятными рекомендациями по устранению. При этом решение о награде и её размере остаётся за OpenAI.

​​Новая программа не появилась на пустом месте. Ещё в марте 2025 года OpenAI рассказывала о расширении своей Security Bug Bounty Program и повышении максимальной выплаты за исключительные критические находки до 100 тысяч долларов вместо прежних 20 тысяч. Тогда же компания подчёркивала, что развивает свою систему кибербезопасности по мере роста возможностей ИИ и появления новых классов угроз.

Есть новость? Станьте автором.

Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.

Вопросы по теме

Что такое Safety Bug Bounty простыми словами?
Это программа вознаграждений за находки, связанные не только со взломом, но и с небезопасным поведением ИИ, которое может привести к реальному вреду.
Чем Safety Bug Bounty отличается от обычной bug bounty?
Обычная bug bounty в первую очередь про классические уязвимости безопасности. Safety Bug Bounty — про риски злоупотребления, обхода защит, prompt injection, утечки через агентное поведение и нарушения целостности аккаунтов/платформы.
Какие продукты интересуют OpenAI в рамках новой программы?
В описании фигурируют агентные продукты, включая браузер, ChatGPT Agent, а также риски, связанные с MCP и другими похожими механизмами интеграции.
Куда подавать отчёт?
Через платформу Bugcrowd, где у OpenAI уже работает и обычная bug bounty-программа.
Сколько могут заплатить?
По данным SecurityWeek со ссылкой на правила программы на Bugcrowd, выплата может доходить до 7 500 долларов за серьёзные воспроизводимые находки, но окончательное решение принимает OpenAI.