OpenAI заявила у блозі, що її майбутні моделі штучного інтелекту можуть досягти рівня, який становитиме “високий” ризик для кібербезпеки. Компанія оприлюднила оцінку власних технологій і застерегла, що ці моделі потенційно можуть створювати “вразливості нульового дня” або допомагати у складних кіберопераціях. Тож OpenAI оголосила про низку ініціатив, спрямованих на посилення захисту та контрольоване використання передових можливостей.
У компанії зазначили, що можливості моделей швидко зростають: результати тестів “захоплення прапора” підвищилися з 27% у GPT-5 до 76% у GPT-5.1-Codex-Max за кілька місяців. OpenAI заявила, що заздалегідь оцінює, чи здатна кожна нова модель досягти рівня, за якого ШІ може розробляти робочі віддалені вразливості або сприяти вторгненням у критичні системи.
OpenAI повідомила, що інвестує у створення засобів для аналізу коду, виправлення вразливостей та підтримки команд кіберзахисту. Серед ключових механізмів – контроль доступу, посилення інфраструктури, моніторинг і системи реагування.
“Під цим ми маємо на увазі моделі, які можуть або розробляти робочі віддалені вразливості нульового дня проти добре захищених систем, або суттєво допомагати у складних, прихованих операціях з вторгнення”, – пояснили в компанії. OpenAI додала, що навчає моделі відхиляти шкідливі запити та доповнює це системами моніторингу, які блокують або перенаправляють небезпечні дії.
Компанія також співпрацює з червоними командами, які намагаються обійти всі захисні бар’єри, щоб виявити прогалини. Паралельно OpenAI працює зі світовою спільнотою кіберзахисників, зокрема через ініціативи з оцінювання кіберстійкості та спільні дослідження загроз.
Незабаром компанія запустить програму довіреного доступу, що надаватиме кваліфікованим користувачам багаторівневий доступ до розширених можливостей моделей. OpenAI також розробляє агента Aardvark – інструмент для аналізу кодових баз та виявлення вразливостей.
Aardvark уже виявив нові CVE у відкритому програмному забезпеченні. Частина його функцій буде доступною безплатно для вибраних некомерційних сховищ даних.
Окремим напрямом стане створення Frontier Risk Council – консультативної групи експертів, яка спершу працюватиме над питаннями кібербезпеки. Вона допомагатиме визначати межі між корисними можливостями ШІ та потенційними ризиками зловживання, а також надаватиме рекомендації командам OpenAI.
OpenAI заявляє, що розглядає ці кроки як довгострокову інвестицію у зміцнення захисної інфраструктури. Компанія планує продовжити розвиток програм, а також досліджувати інші ініціативи та гранти в галузі кібербезпеки, щоб залучати інноваційні підходи з академічної, промислової та відкритої спільнот.
Міжнародна наукова спільнота ставить під сумнів реальний прогрес та безпеку штучного інтелекту. Дослідження виявило, що інструменти (бенчмарки), якими вимірюють “розум” та безпечність нейромереж, є фундаментально слабкими, що робить заяви техногігантів про прориви та якість моделей необґрунтованими або оманливими.
