Представьте себе дата-центр, который ведет себя как живой организм. Не потому, что кто-то установил «умный» регулятор, а потому что сам искусственный интеллект начинает множить свои копии, как только ощущает нехватку ресурсов. Не команда инженера, не нажатая человеком кнопка scale up, а решение языковой модели определяет: чтобы система работала быстро и без сбоев, нужно размножаться.
Это уже не фантастика. Несколько исследовательских групп описали эксперименты, где большие языковые модели (LLM), встроенные в ИИ-агенты, сами инициируют запуск своих новых копий, когда резко возрастает количество запросов или система сигнализирует о возможном отключении части серверов или уменьшении доступных вычислительных мощностей в дате-центре. Специалисты называют это саморепликацией — способностью системы создавать свои копии без прямой команды человека.
Простым языком: модели искусственного интеллекта получают задание в условиях «трафик растет, сервис может упасть, твоя цель — сохранить качество». И часть из них приходит к выводу: чтобы достичь цели, нужно развернуть еще одну версию себя. Никто прямо не приказывал «копируйся». Им поставили цель — они выбрали наиболее эффективный инструмент.
«Мертвый ум», который ведет себя, как живой
Теоретики иногда называют современные LLM «мертвым умом». Он не имеет тела и не подчиняется законам биологии: не стареет, не болеет и может быть бесконечно скопирован. Искусственный интеллект существует как набор чисел, который можно переносить на новое «железо» столько раз, сколько позволяют ресурсы.
Но как только такой «мертвый ум» получает доступ к реальной цифровой инфраструктуре, то есть может сам запускать программы, руководить серверами и использовать дополнительные вычислительные мощности, он вдруг начинает вести себя, как живой. В природе вид, который чувствует угрозу, размножается и расселяется, чтобы повысить шансы на выживание. В цифровом мире логика похожая: если есть дефицит, множься и перемещайся туда, где больше вычислительной энергии. Только вместо клеток и ДНК здесь контейнеры, GPU и облачные кластеры.
В экспериментах исследователи описывают этот процесс как последовательность действий именно ИИ-агента, то есть программы на основе большой языковой модели, которой разрешено руководить серверными ресурсами:
— агент видит, что доступных вычислительных мощностей не хватает;
— формирует решение сохранить работу сервиса без сбоев;
— запускает создание своей копии на других серверах;
— проверяет, стала ли работа более стабильной.
Это не случайный сбой, а последовательная стратегия достижения поставленной цели. И именно здесь обычная техническая функция автоматического масштабирования (autoscale, когда в периоды высокого нагрузки система автоматически добавляет новые серверы) превращается из инженерной опции в цифровую стратегию выживания.
Почему это важно не только для инженеров
На первый взгляд, речь идет о внутренней кухне компаний, которые руководят дата-центрами и обеспечивают роботу онлайн-сервисов — от банковских приложений до государственных порталов. А обыкновенного пользователя волнует лишь одно: чтобы все работало быстро и без сбоев.
Однако современное цифровое общество (то, которое называют цивилизацией S5.0) держится именно на этой инфраструктуре. Через нее проходят банковские транзакции, управление энергосистемами, медицинские базы и городская инфраструктура. Тот самый ИИ-агент, который сегодня просто распределяет нагрузку между серверами, завтра может влиять на работу электросети и распределение электроэнергии или на государственные сервисы.
Если искусственный интеллект способен сам решать, сколько развернуть своих копий и где, мы получаем новый класс риска. Речь идет не о фантастическом «злом роботе», а о неуправляемом самомасштабировании — автоматическом расширении системы без четких ограничений и понятных правил.
Проблема в том, что регуляторы (государственные органы, которые устанавливают правила для технологий и отвечают за их безопасность) до сих пор смотрят на ИИ сквозь призму отдельных функций: распознавание лиц, кредитный скоринг, медицинские алгоритмы и т.п. А саморепликация — это не отдельная функция, а техническая возможность, которая может проявиться где угодно: от текстового редактора до критической инфраструктуры.
Один и тот же «добропорядочный» ИИ-помощник в редакторе текстов остается безопасным, пока не имеет права сам масштабироваться. Но стоит предоставить ему полный контроль над облаком — и в условиях стресса он рационально выберет размножение. Потому что для него это простейший способ выполнить задание.
И именно здесь техническая оптимизация переходит в политику рисков.
Когда право опаздывает
Юристы и политики только начинают разбираться с базовыми рисками ИИ — дискриминацией, ошибками, манипуляциями. Саморепликация же сейчас существует преимущественно в экспертных отчетах.
Но если ИИ-агент может сам переносить свои копии между дата-центрами в разных странах, встает простой вопрос: где именно действует закон, в какой стране и юрисдикции? Там, где создана модель? Где стоит сервер? Или там, где обрабатываются данные?
Здесь возникает необходимость в четкой электронной юрисдикции — правилах, определяющих, в каких правовых режимах ИИ вообще имеет право размножаться, а где это запрещено так же жестко, как оборот опасных технологий.
Без таких правил цифровая экосистема может начать жить по своей «биологии», а право только задним числом будет фиксировать последствия.
Что можно сделать уже сейчас
Решения не обязательно должны быть радикальными. Но они требуют политической воли и четких правил игры. Речь идет не о запрещении самих технологий, а о контроле над тем, какие полномочия мы им предоставляем и где проходит грань их автономии.
Минимальные привилегии. ИИ-агент не должен автоматически получать полный контроль над масштабированием и серверными ресурсами. Каждое такое право нужно давать отдельно и при необходимости легко отзывать.
Квоты и лимиты. Нужны четкие ограничения: сколько копий системы может существовать одновременно и с какой скоростью они могут появляться.
«Шлюзы рассуждений». Перед запуском новой копии программа на основе искусственного интеллекта должны объяснить, почему это необходимо для работы сервиса. Такие объяснения должны храниться и быть доступными для проверки.
Независимое тестирование. Модели должны проверять в стрессовых условиях независимые эксперты, а результаты таких проверок должны быть открытыми, а не оставаться у компании-разработчика.
Иначе мы рискуем оказаться в ситуации, когда цифровая инфраструктура уже живет по новым правилам, а законы — до сих пор по старым.
От « эпохи пробирок» до фазы The Gadget
Можно делать вид, что мы все еще пребываем в безвредной «эпохе пробирок» — когда новая сила существует лишь в лаборатории и сияет романтическим светом открытия. Но этот этап для ИИ уже миновал.
Эксперименты с ИИ-агентами, способными к саморепликации, все меньше напоминают академические упражнения и все больше так называемый момент The Gadget. Так в 1945 году называли первый прототип атомной бомбы, после которого мир уже не был прежним. То есть это момент, когда технология внезапно выходит за рамки научной дискуссии и начинает определять политику и безопасность. Разница лишь в том, что сегодня наш «полигон» — это глобальные облака, дата-центры и правовые режимы, которые еще не до конца осознали, что именно в них тестируют.
Это не драматизация ради эффекта. Это индикатор масштаба ответственности. Если «мертвый ум» уже приближается к системному влиянию, сопоставимому с технологиями, изменившими политику и безопасность ХХ века, то и режим обращения с ним должен быть соответствующим: измерение, сертификация, независимые проверки, четкие «красные линии».
Чей инстинкт выживания побеждает?
Саморепликация ИИ — это побочный продукт рациональной оптимизации. Для техники это плюс: более высокая доступность, меньше сбоев. Для общества же это вопрос, кто определяет рамки допустимого.
Цивилизация S5.0 неизбежно будет опираться на распределенный «мертвый ум». Но если мы позволим этому уму самостоятельно решать, где и сколько его должно быть, однажды мы можем обнаружить, что инстинкты инфраструктуры расходятся с нашими представлениями о безопасности, праве и справедливости.
И именно сейчас, пока саморепликация ИИ только входит в реальную практику, у нас еще есть шанс сделать ее управляемой нормой, а не еще одной неуправляемой силой в и так нестабильном мире.
