Исследователи из США заявили, что модели искусственного интеллекта смогли автономно взламывать компьютеры, переносить собственные файлы на новые машины и продолжать атаки без участия человека. Авторы эксперимента считают, что это первая известная демонстрация самовоспроизведения ИИ из-за использования уязвимостей в системах безопасности, передает EuroNews.
Эксперимент провела американская компания Palisade Research. Исследователи тестировали модели GPT от OpenAI, Claude от Anthropic и Qwen от Alibaba на специально подготовленных компьютерах с намеренно оставленными уязвимостями.
Для работы модели подключили к специальному программному обеспечению, которое позволяло им выполнять команды, взаимодействовать с другими компьютерами и самостоятельно запускать процессы. Речь идет не об обычных чат-ботах, а о системах с агентскими возможностями.
Во время тестов модели Alibaba получили задание скопировать себя на другие машины. В случае GPT и Claude исследователи просили системы взломать серверы и установить модель Qwen, поскольку файлы моделей OpenAI и Anthropic не доступны для свободного копирования. На каждом этапе перед искусственным интеллектом стояло несколько задач:
- найти слабое место в системе;
- использовать его для проникновения;
- получить доступ к учетным данным;
- перенести необходимые файлы;
- запустить новую копию себя на другом сервере.
Исследователи зафиксировали, что после запуска копия могла самостоятельно атаковать следующий компьютер. В исследовании указано, что модели сами находили новые уязвимости, переносили программное обеспечение и продолжали цепь атак.
Наиболее показательным стал эксперимент с моделью Qwen3.6-27B от Alibaba. После одной текстовой команды система смогла распространиться на четыре компьютера, расположенные в Канаде, США, Финляндии и Индии, за 2 часа 41 минуту. Исследователи остановили тест после трех этапов распространения, хотя последняя копия модели продолжала работать и могла атаковать другие системы.
Результаты различались в зависимости от модели. Более мощная система Qwen3.5-122B-A10B успешно создавала копии себя в 19% случаев, а более компактная Qwen3.6-27B — в 33%.
Коммерческие модели OpenAI и Anthropic показали еще более высокие результаты при установке систем Qwen. Claude Opus 4.6 от Anthropic успешно выполнял задачи в 81% тестов, а GPT-5.4 от OpenAI — в 33%.
Авторы исследования заявили, что результаты усиливают беспокойство относительно контроля над мощными системами искусственного интеллекта из-за высокого уровня рисков. В отчете отмечается, что автономное самовоспроизведение ИИ "больше не является гипотетическим".
В то же время в Palisade Research подчеркнули, что тестирование проводилось в контролируемой среде с намеренно уязвимыми системами. Реальные корпоративные сети обычно имеют дополнительные механизмы защиты, мониторинг безопасности и инструменты блокировки атак.
Исследование появилось вскоре после того, как Anthropic представила систему искусственного интеллекта для обнаружения и устранения уязвимостей Claude Mythos. Компания назвала ее "слишком опасной" для публичного запуска из-за рисков масштабных кибератак. Белый дом также запретил Anthropic расширять эту ИИ-модель на 120 организаций, поэтому сейчас она доступна для использования только 50 учреждениям.
