Через неделю после того, как Anthropic выпустила Claude Mythos для рынка кибербезопасности, OpenAI ответила собственным вариантом — GPT-5.4-Cyber. Но техническая новинка здесь менее интересна, чем то, что компания сделала с ограничениями.
Та же модель, другие правила
GPT-5.4-Cyber — это не отдельная архитектура, а модифицированная версия GPT-5.4 со сниженными порогами отказов для легитимных киберзадач. OpenAI называет это подходом «cyber-permissive»: модель будет отвечать на запросы, которые стандартная версия отклонила бы как потенциально опасные — анализ уязвимостей, реверс-инжиниринг бинарного кода, исследование малвара.
Среди новых возможностей — именно binary reverse engineering: аналитики могут искать вредоносный код в программах и приложениях без ручного дизассемблирования. Как отмечает SiliconAngle, показатель CTF-бенчмарков (capture-the-flag — соревнования по кибербезопасности) вырос с 27% на GPT-5 в августе 2025 года до 76% на текущем поколении моделей. Это не абстрактная статистика: CTF-сценарии моделируют реальные атаки.
Доступ через уровни проверки
Модель не появится в свободном доступе. OpenAI расширяет программу Trusted Access for Cyber (TAC) — многоуровневую систему верификации, где более высокий уровень доступа открывает более мощные возможности. Наивысший уровень дает доступ именно к GPT-5.4-Cyber с минимальными ограничениями.
Верификация включает KYC-проверку (Know Your Customer) и автоматическую идентификацию личности. Доступ получат проверенные организации, поставщики решений по безопасности и исследователи. Параллельно OpenAI сохраняет дополнительные защитные механизмы: мониторинг запросов в реальном времени и асинхронную блокировку для клиентов на Zero Data Retention-поверхностях.
«Поскольку возможности кибербезопасности по своей природе имеют двойное применение, мы придерживаемся осторожного подхода к развертыванию»
— OpenAI, системная карта GPT-5.4
Двойное применение как встроенный риск
Именно здесь — реальный конфликт, а не маркетинговый нарратив. Модель, натренированная находить уязвимости и понимать логику атакующего, по определению полезна и для защиты, и для нападения. OpenAI это признает открыто: в документации GPT-5.4 классифицируется как модель с «High cyber capability» согласно внутренней системе Preparedness Framework.
- Реверс-инжиниринг бинарного кода — находит уязвимости и помогает их эксплуатировать
- Анализ малвара — учит понимать атаки, но и воспроизводить их логику
- Исследование уязвимостей — стандартная практика пентестеров и одновременно злоумышленников
Anthropic столкнулась с тем же с Claude Mythos. Обе компании делают ставку на верификацию доступа как основной защитный механизм — но KYC-проверка не гарантирует, что верифицированная организация не будет злоупотреблять возможностями или не станет жертвой утечки учетных данных.
Что дальше
OpenAI прямо заявляет, что GPT-5.4-Cyber — подготовка к «более мощным моделям, появляющимся в этом году». То есть планка возможностей продолжит расти, а система верификации останется той же.
Если ни один из задокументированных инцидентов злоупотребления не появится публично в течение следующих шести месяцев, это либо означает, что система TAC действительно работает — либо что мы просто о них не узнаем.