Майбутній ШІ зможе проводити приховані кібератаки: нова стратегія безпеки OpenAI

Поділитися
Майбутній ШІ зможе проводити приховані кібератаки: нова стратегія безпеки OpenAI © Getty Images
Компанія готує багаторівневі обмеження доступу та створює консультативну раду.

OpenAI заявила у блозі, що її майбутні моделі штучного інтелекту можуть досягти рівня, який становитиме “високий” ризик для кібербезпеки. Компанія оприлюднила оцінку власних технологій і застерегла, що ці моделі потенційно можуть створювати “вразливості нульового дня” або допомагати у складних кіберопераціях. Тож OpenAI оголосила про низку ініціатив, спрямованих на посилення захисту та контрольоване використання передових можливостей.

У компанії зазначили, що можливості моделей швидко зростають: результати тестів “захоплення прапора” підвищилися з 27% у GPT-5 до 76% у GPT-5.1-Codex-Max за кілька місяців. OpenAI заявила, що заздалегідь оцінює, чи здатна кожна нова модель досягти рівня, за якого ШІ може розробляти робочі віддалені вразливості або сприяти вторгненням у критичні системи.

OpenAI повідомила, що інвестує у створення засобів для аналізу коду, виправлення вразливостей та підтримки команд кіберзахисту. Серед ключових механізмів – контроль доступу, посилення інфраструктури, моніторинг і системи реагування.

“Під цим ми маємо на увазі моделі, які можуть або розробляти робочі віддалені вразливості нульового дня проти добре захищених систем, або суттєво допомагати у складних, прихованих операціях з вторгнення”, – пояснили в компанії. OpenAI додала, що навчає моделі відхиляти шкідливі запити та доповнює це системами моніторингу, які блокують або перенаправляють небезпечні дії.

Компанія також співпрацює з червоними командами, які намагаються обійти всі захисні бар’єри, щоб виявити прогалини. Паралельно OpenAI працює зі світовою спільнотою кіберзахисників, зокрема через ініціативи з оцінювання кіберстійкості та спільні дослідження загроз.

Незабаром компанія запустить програму довіреного доступу, що надаватиме кваліфікованим користувачам багаторівневий доступ до розширених можливостей моделей. OpenAI також розробляє агента Aardvark – інструмент для аналізу кодових баз та виявлення вразливостей.

Aardvark уже виявив нові CVE у відкритому програмному забезпеченні. Частина його функцій буде доступною безплатно для вибраних некомерційних сховищ даних.

Окремим напрямом стане створення Frontier Risk Council – консультативної групи експертів, яка спершу працюватиме над питаннями кібербезпеки. Вона допомагатиме визначати межі між корисними можливостями ШІ та потенційними ризиками зловживання, а також надаватиме рекомендації командам OpenAI.

OpenAI заявляє, що розглядає ці кроки як довгострокову інвестицію у зміцнення захисної інфраструктури. Компанія планує продовжити розвиток програм, а також досліджувати інші ініціативи та гранти в галузі кібербезпеки, щоб залучати інноваційні підходи з академічної, промислової та відкритої спільнот.

Міжнародна наукова спільнота ставить під сумнів реальний прогрес та безпеку штучного інтелекту. Дослідження виявило, що інструменти (бенчмарки), якими вимірюють “розум” та безпечність нейромереж, є фундаментально слабкими, що робить заяви техногігантів про прориви та якість моделей необґрунтованими або оманливими.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі