OpenAI наращивает защиту в ответ на взрывной рост киберспособностей ИИ

Компания OpenAI усиливает многоуровневые меры безопасности в ответ на стремительный рост киберспособностей передовых искусственных интеллектов. По мере того как ИИ-модели демонстрируют всё более высокую техническую эффективность в сфере кибербезопасности, компания расширяет комплекс защитных инструментов и стратегий, стремясь обеспечить преимущество для защитников цифрового пространства.
Эффективность специализированных моделей OpenAI в выполнении киберзадач растет беспрецедентными темпами. Так, показатель успешности в Capture The Flag (CTF) — соревнованиях по поиску уязвимостей — вырос с 27% у модели GPT-5 в августе 2025 года до 76% у улучшенной версии GPT-5.1-Codex-Max в ноябре того же года. Этот скачок наглядно иллюстрирует быстрое приобретение ИИ-системами сложных технических навыков. OpenAI прогнозирует, что будущие модели могут достичь уровня «Высоких» возможностей в рамках собственной системы оценки Preparedness Framework, что означает способность самостоятельно разрабатывать рабочие эксплойты для неизвестных уязвимостей или помогать в проведении сложных корпоративных кибератак.
В ожидании этого компания заявляет, что уже сейчас готовит защитные механизмы, исходя из предположения, что каждая новая модель потенциально способна достичь такого порога. Основной стратегией является упреждающее инвестирование в модели, предназначенные для поддержки оборонительных задач: от аудита кода до исправления уязвимостей в больших масштабах. Цель — предоставить защитникам, которые часто находятся в меньшинстве и испытывают нехватку ресурсов, реальное технологическое преимущество. Поскольку для наступательных и оборонительных киберопераций требуется одна и та же база знаний, OpenAI делает ставку на комплексный, многослойный подход к безопасности, а не на какую-либо одну меру.
Этот подход включает в себя несколько уровней. На фундаментальном уровне применяются строгий контроль доступа, усиленная инфраструктура, ограничения на передачу данных и всеобъемлющий мониторинг. Их дополняют системы обнаружения и реагирования, а также внутренние программы анализа угроз. Важную роль играет обучение самих моделей: передовые ИИ учат отказываться или безопасно реагировать на запросы, явно направленные на киберзлоупотребления, оставаясь при этом полезными для легитимной оборонительной работы и образования. Для проверки всей этой системы привлекаются внешние эксперты по этичному взлому, которые пытаются преодолеть каждый уровень защиты, имитируя действия хорошо оснащенного противника.
Параллельно с внутренними мерами OpenAI развивает отраслевые инициативы. Вскоре будет запущена программа доверенного доступа, которая позволит квалифицированным специалистам в области киберзащиты использовать расширенные возможности моделей в контролируемых условиях. Также компания тестирует автономного агента-исследователя безопасности Aardvark, который способен сканировать целые базы кода на наличие уязвимостей и предлагать исправления; его бесплатная поддержка будет предоставлена ряду некоммерческих open-source проектов. Для усиления управления рисками формирует Экспертный совет по рискам будущих ИИ, группу из опытных защитников, которая поможет определять границу между ответственным использованием возможностей и риском их вредоносного применения. Через Frontier Model Forum OpenAI сотрудничает с другими ведущими лабораториями над созданием единой модели угроз для передовых ИИ-систем.
Вся эта работа, как подчеркивает компания, представляет собой долгосрочное обязательство, а не разовое мероприятие. Конечная миссия заключается в том, чтобы растущая мощь искусственного интеллекта превращалась в реальное преимущество для защитников, была основана на практических потребностях, сформирована с учетом мнения экспертов и внедрялась с максимальной осторожностью.