OpenAI заявила в блоге, что ее будущие модели искусственного интеллекта могут достичь уровня, который будет представлять "высокий" риск для кибербезопасности. Компания обнародовала оценку собственных технологий и предостерегла, что эти модели потенциально могут создавать "уязвимости нулевого дня" или помогать в сложных кибероперациях. Поэтому OpenAI объявила о ряде инициатив, направленных на усиление защиты и контролируемое использование передовых возможностей.
В компании отметили, что возможности моделей быстро растут: результаты тестов "захвата флага" повысились с 27% в GPT-5 до 76% в GPT-5.1-Codex-Max за несколько месяцев. OpenAI заявила, что заранее оценивает, способна ли каждая новая модель достичь уровня, при котором ИИ может разрабатывать рабочие удаленные уязвимости или способствовать вторжениям в критические системы.
OpenAI сообщила, что инвестирует в создание средств для анализа кода, исправления уязвимостей и поддержки команд киберзащиты. Среди ключевых механизмов - контроль доступа, усиление инфраструктуры, мониторинг и системы реагирования.
"Под этим мы имеем в виду модели, которые могут либо разрабатывать рабочие удаленные уязвимости нулевого дня против хорошо защищенных систем, либо существенно помогать в сложных, скрытых операциях по вторжению", - пояснили в компании. OpenAI добавила, что обучает модели отклонять вредоносные запросы и дополняет это системами мониторинга, которые блокируют или перенаправляют опасные действия.
Компания также сотрудничает с красными командами, которые пытаются обойти все защитные барьеры, чтобы выявить пробелы. Параллельно OpenAI работает с мировым сообществом киберзащитников, в частности через инициативы по оценке киберустойчивости и совместные исследования угроз.
Вскоре компания запустит программу доверенного доступа, которая будет предоставлять квалифицированным пользователям многоуровневый доступ к расширенным возможностям моделей. OpenAI также разрабатывает агента Aardvark - инструмент для анализа кодовых баз и выявления уязвимостей.
Aardvark уже обнаружил новые CVE в открытом программном обеспечении. Часть его функций будет доступна бесплатно для выбранных некоммерческих хранилищ данных.
Отдельным направлением станет создание Frontier Risk Council - консультативной группы экспертов, которая сначала будет работать над вопросами кибербезопасности. Она будет помогать определять границы между полезными возможностями ИИ и потенциальными рисками злоупотребления, а также предоставлять рекомендации командам OpenAI.
OpenAI заявляет, что рассматривает эти шаги как долгосрочную инвестицию в укрепление защитной инфраструктуры. Компания планирует продолжить развитие программ, а также исследовать другие инициативы и гранты в области кибербезопасности, чтобы привлекать инновационные подходы из академического, промышленного и открытого сообществ.
Международное научное сообщество ставит под сомнение реальный прогресс и безопасность искусственного интеллекта. Исследование показало, что инструменты (бенчмарки), которыми измеряют "ум" и безопасность нейросетей, являются фундаментально слабыми, что делает заявления техногигантов о прорывах и качестве моделей необоснованными или обманчивыми.
