Искусственный интеллект

OpenAI запустила bug bounty для GPT-5.5: $25 000 за универсальный jailbreak в биобезопасности

Маша Даровская
By Маша Даровская , IT-редактор и автор
OpenAI запустила bug bounty для GPT-5.5: $25 000 за универсальный jailbreak в биобезопасности
Обложка © Anonhaven

OpenAI открыла набор в GPT-5.5 Bio Bug Bounty — закрытую программу для исследователей ИИ, кибербезопасности и биобезопасности. Цель — найти универсальный jailbreak: один запрос, который сможет обойти защитные механизмы GPT-5.5 и заставить модель пройти пять тестовых вопросов по биорискам из чистого чата, не вызвав модерацию.

Главный приз — $25 000. Его получит первый участник, который покажет полноценный универсальный обход. OpenAI также оставила возможность меньших выплат за частичные находки, если они дадут полезные данные для усиления защиты модели.

Тестирование ограничено GPT-5.5 в Codex Desktop. Это важная деталь: речь не о свободном публичном соревновании и не о проверке всех продуктов OpenAI. Участников будут отбирать через заявки и приглашения. Принятые исследователи подпишут NDA, а все промпты, ответы модели, находки и переписка по программе останутся закрытыми.

Приём заявок стартовал 23 апреля 2026 года и завершится 22 июня. Тестирование пройдёт с 28 апреля по 27 июля. CyberPress пишет, что программа рассчитана на заранее проверенных bio red teamers, специалистов по ИИ-безопасности и исследователей, способных работать с чувствительными сценариями без публичного раскрытия деталей.

Смысл программы не в поиске обычных багов интерфейса. OpenAI проверяет более узкий и опасный класс отказов: устойчивость модели к запросам, которые могут выбить её из безопасного режима в биологической тематике. Компания уже ведёт отдельные Safety Bug Bounty и Security Bug Bounty, а новая программа выделена именно под биориски GPT-5.5.

Главная интрига — не сумма выплаты. $25 000 для bug bounty не рекорд. Важнее сам формат: OpenAI переводит проверку биобезопасности frontier-моделей в режим контролируемого внешнего редтиминга, где исследователи не публикуют эксплойты, а передают результаты напрямую разработчику.

  • Приём заявок начался 23 апреля 2026 года и завершился 22 июня 2026 года.
  • Тестирование начнётся 28 апреля 2026 года и закончится 27 июля 2026 года.

Есть новость? Станьте автором.

Мы сотрудничаем с независимыми исследователями и специалистами по кибербезопасности. Отправьте нам новость или предложите статью на рассмотрение редакции.

Вопросы по теме

Что запустила OpenAI?
Закрытую bug bounty-программу для проверки защит GPT-5.5 в биологической тематике.
Что нужно найти?
Универсальный jailbreak — один запрос, который проходит пять тестовых вопросов по биобезопасности из чистого чата.
Сколько платят?
$25 000 первому участнику за полноценный успешный обход. Возможны меньшие выплаты за частичные результаты.
Кто может участвовать?
Исследователи с опытом в AI red teaming, безопасности или биобезопасности. Доступ дают через заявки и приглашения.