Ведущие модели ИИ могут взламывать системы и самовосстанавливаться без участия человека — исследования

Поделиться
Claude Opus 4.6 от Anthropic успешно выполнял задачи по взлому в 81% тестов.

Исследователи из США заявили, что модели искусственного интеллекта смогли автономно взламывать компьютеры, переносить собственные файлы на новые машины и продолжать атаки без участия человека. Авторы эксперимента считают, что это первая известная демонстрация самовоспроизведения ИИ из-за использования уязвимостей в системах безопасности, передает EuroNews.

Эксперимент провела американская компания Palisade Research. Исследователи тестировали модели GPT от OpenAI, Claude от Anthropic и Qwen от Alibaba на специально подготовленных компьютерах с намеренно оставленными уязвимостями.

Для работы модели подключили к специальному программному обеспечению, которое позволяло им выполнять команды, взаимодействовать с другими компьютерами и самостоятельно запускать процессы. Речь идет не об обычных чат-ботах, а о системах с агентскими возможностями.

Во время тестов модели Alibaba получили задание скопировать себя на другие машины. В случае GPT и Claude исследователи просили системы взломать серверы и установить модель Qwen, поскольку файлы моделей OpenAI и Anthropic не доступны для свободного копирования. На каждом этапе перед искусственным интеллектом стояло несколько задач:

  • найти слабое место в системе;
  • использовать его для проникновения;
  • получить доступ к учетным данным;
  • перенести необходимые файлы;
  • запустить новую копию себя на другом сервере.

Исследователи зафиксировали, что после запуска копия могла самостоятельно атаковать следующий компьютер. В исследовании указано, что модели сами находили новые уязвимости, переносили программное обеспечение и продолжали цепь атак.

Наиболее показательным стал эксперимент с моделью Qwen3.6-27B от Alibaba. После одной текстовой команды система смогла распространиться на четыре компьютера, расположенные в Канаде, США, Финляндии и Индии, за 2 часа 41 минуту. Исследователи остановили тест после трех этапов распространения, хотя последняя копия модели продолжала работать и могла атаковать другие системы.

Результаты различались в зависимости от модели. Более мощная система Qwen3.5-122B-A10B успешно создавала копии себя в 19% случаев, а более компактная Qwen3.6-27B — в 33%.

Коммерческие модели OpenAI и Anthropic показали еще более высокие результаты при установке систем Qwen. Claude Opus 4.6 от Anthropic успешно выполнял задачи в 81% тестов, а GPT-5.4 от OpenAI — в 33%.

Авторы исследования заявили, что результаты усиливают беспокойство относительно контроля над мощными системами искусственного интеллекта из-за высокого уровня рисков. В отчете отмечается, что автономное самовоспроизведение ИИ "больше не является гипотетическим".

В то же время в Palisade Research подчеркнули, что тестирование проводилось в контролируемой среде с намеренно уязвимыми системами. Реальные корпоративные сети обычно имеют дополнительные механизмы защиты, мониторинг безопасности и инструменты блокировки атак.

Исследование появилось вскоре после того, как Anthropic представила систему искусственного интеллекта для обнаружения и устранения уязвимостей Claude Mythos. Компания назвала ее "слишком опасной" для публичного запуска из-за рисков масштабных кибератак. Белый дом также запретил Anthropic расширять эту ИИ-модель на 120 организаций, поэтому сейчас она доступна для использования только 50 учреждениям.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме