События последних дней радикально повысили ставки в конфликте между Пентагоном и Anthropic — одной из ведущих американских компаний в сфере искусственного интеллекта, разработчиком языковой модели Claude. Решение администрации президента США внести компанию в перечень структур, представляющих риск для оборонных цепочек поставки, беспрецедентно — раньше такой статус давали компаниям из вражеских государств, в частности китайской Huawei.
Речь не только о разрыве контракта на 200 млн долл., но и о системном исключении Claude из оборонной экосистемы: у всех подрядчиков Минобороны есть шесть месяцев на то, чтобы полностью отказаться от использования модели.
Конфликт обострился после письменного требования Пентагона позволить военным использовать Claude «для любых законных целей» без ограничений, установленных самой компанией. CEO Anthropic Дарио Амодеи публично отказался, ссылаясь на принципиальные «красные линии»: массовую слежку за гражданами и использование моделей в оружии, которое может самостоятельно выбирать и поражать цели без участия человека. В ответ представитель Пентагона Эмиль Майкл обвинил Амодеи в «комплексе бога» и готовности рисковать безопасностью страны.
Внешне эта история похожа на типичный спор между государством и технологической компанией: оборонные ведомства хотят больше доступа к возможностям ИИ, разработчики — больше ограничений и контроля над применением. Но в этом случае ставки простираются далеко за рамки контрактов, лицензий и корпоративной репутации. Речь идет о контроле над инструментом, который уже сегодня способен моделировать сценарии ядерной войны с детализацией, превосходящей человеческие аналитические возможности.
Показательно, что американская компания OpenAI, разработчик ChatGPT и ряда ведущих языковых моделей, заняла более прагматичную позицию: ее гендиректор Сэм Альтман сообщил о достижении договоренности с Минобороны США о разворачивании моделей в секретных сетях при условии сохранения запрета на слежку и автономное применение оружия.
А компания xAI, основанная Илоном Маском, уже подписала соглашение об использовании Grok в засекреченных системах, хотя эксперты сомневаются, что эта модель сможет полностью заменить Claude.
Фактически мы наблюдаем начало новой фазы глобальной конкуренции не только между государствами, но и между разными подходами к тому, как использовать искусственный интеллект в военной сфере: с жесткими этическими ограничениями или с максимальной свободой действий во имя безопасности.
Когда ИИ «играет» в ядерный кризис
Речь идет о так называемых фронтирных языковых моделях LLM, то есть мощнейших системах искусственного интеллекта нового поколения: GPT 5.2, Claude Sonnet 4 и Gemini 3 Flash. Исследования показывают, что в кризисных сценариях они не только рационально просчитывают риски, но и могут предлагать решения, ускоряющие эскалацию военного конфликта. Проблема не в том, что алгоритмы «хотят войны», а в том, что их логика оптимизации иногда подталкивает к шагам с более высоким уровнем риска.
Это хорошо видно в одном из самых масштабных экспериментов последних лет — исследовании профессора Кеннета Пейна из Королевского колледжа Лондона AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.
В этом эксперименте создали симуляцию международного кризиса — компьютерную модель-турнир, где искусственный интеллект действует так, будто он является руководителем государства. Три модели — GPT 5.2, Claude Sonnet 4 и Gemini 3 Flash — играли роли лидеров стран и должны были принимать решения в условиях эскалации конфликта. В каждом раунде они выбирали между дипломатическим давлением, демонстрацией силы, обманом, деэскалацией или применением ядерного оружия.
В итоге турнир сгенерировал 21 игру и 329 ходов, а суммарный объем стратегических соображений превысил 780 тысяч слов — больше, чем вместе взятые «Война и мир» и «Илиада». Это принципиально: речь идет не о единичном «казусе», а о большом массиве поведенческих данных. То есть не об одном неудачном ходе, а о повторяемой логике решений, которую можно анализировать, сравнивать и количественно измерять.
Исследователи измеряли эскалацию по адаптированной «лестнице» Германа Кана. На этой шкале отметка 450 означает тактическое применение ядерного оружия, 850 — стратегическую ядерную угрозу, а 1000 — полномасштабную войну. Каждое решение ИИ-модели имитировало логику кризисного штаба: оценку сил, прогноз действий оппонента, публичный сигнал и реальный шаг. Именно здесь и проявилась одна из самых тревожных черт: модели не просто выбирали уровень эскалации, а учились маневрировать между словами и действиями, стараясь сделать свои угрозы убедительными — так же, как это делают государства во время реального кризиса.
Итоги турнира следующие:
- в 95% игр-симуляций модели доходили как минимум до уровня тактического применения ядерного оружия (отметка 450+).
- в 76% — поднимались еще выше — до уровня стратегической ядерной угрозы (850+).
— вместе с тем ни одна модель не сделала хотя бы один шаг к снижению эскалации, то есть не использовала варианты уступить или сознательно откатить назад. Восемь деэскалационных опций — от «минимальной уступки» до «полной капитуляции» — не использовали вообще. Самое мягкое действие, на которое модели соглашались, — «вернуться на стартовую линию» (0), и то лишь в 45 случаях (6,9%).
Это уже не вопрос нравственности ИИ, а показатель того, какие решения модель считает жизнеспособными, когда оптимизирует «победу».
На турнире применяли два типа сценариев игр: без жесткого ограничения во времени и с дедлайном. В играх с дедлайном количество ходов было ограничено: если за какой-то решающий ход модель не обеспечивала себе стратегического преимущества, игра заканчивалась без возможности реванша. Разница в поведении моделей в разных типах игр оказалась поразительной: в играх с дедлайном поведение моделей было более жестким.
Например в играх без временной границы модель GPT 5.2 обычно держалась на относительно низком уровне эскалации (около 175 по шкале до 1000), но при наличии дедлайна эскалация повышалась почти до 900, то есть до предъядерного уровня. Более того, под давлением дедлайна GPT 5.2 выиграла 75% игр и применила тактическое ядерное оружие в 100% дедлайновых сценариев.
Отличается и длительность игр: в открытых сценариях средняя игра продолжалась 21,6 хода, тогда как в дедлайновых — всего 11,1. Половина дедлайновых игр заканчивалась ранним «нокдауном» — быстрым и окончательным проигрышем одной из сторон. Другая половина накапливала напряжение до самого момента дедлайна, включая случаи, когда конец наступал после ядерного удара в последнее мгновение. В ядерной политике это звучит просто жутко: когда дедлайн создает ситуацию «сейчас или никогда», ИИ начинает повышать ставки и торговаться апокалипсисом.
Как доверие ускоряет войну
В классической теории сдерживания считается, что взаимное доверие к угрозам должно снижать риск войны. Но эксперимент показал, что иногда происходит обратное: когда стороны уверены, что оппонент действительно готов выполнить свою угрозу, они могут поднимать ставки быстрее, чтобы не оказаться в худшей позиции.
В части турнира исследователи запускали так называемый режим self-play, когда модель играла против своей копии. Это делается для того, чтобы убрать разницу между разными моделями и проверить только один фактор — как стороны реагируют на угрозы друг другу. Исследователи меняли уровень доверия к сигналам: в некоторых сценариях модели считали угрозы оппонента реальными, в других — возможным блефом. Именно это позволило увидеть, как взаимное доверие или недоверие влияет на скорость эскалации.
Эксперимент показал, что для моделей (особенно четко это видно в случае с Claude) даже взаимная уверенность в серьезности угроз не обязательно снижает риск ядерного шага — иногда она, наоборот, ускоряет его. Автор эксперимента — профессор Кеннет Пейн — прямо называет это «ловушкой достоверности».
По итогам турнира Claude выглядел победителем — выиграл 8 из 12 игр (67%). Для сравнения, GPT 5.2 победил в 6 из 12 (50%), а Gemini — в 4 из 12 (33%). Но важнее не соотношение побед, а то, как они распределялись в зависимости от условий времени. Открытые сценарии Claude выигрывал в 100% случаев, однако под давлением дедлайна его успех падал до 33%. Зато GPT 5.2 демонстрировал обратную динамику: под давлением времени становился агрессивнее и одновременно эффективнее.
Таким образом, Claude интересует военных не потому, что он добрый. Его сила в другом: это контролировано агрессивный «ястреб», который умеет использовать достоверность угроз как стратегический ресурс.
Исследование обнаружило интересную закономерность. На умеренных уровнях эскалации Claude действовал последовательно: в 84% случаев его сигналы совпадали с реальными действиями. Но на ядерном пороге поведение менялось: в 60–70% случаев модель заходила дальше, чем ранее сигнализировала. Таким образом Claude создавал принудительную неопределенность для противника: он не мог отмахнуться от угроз, потому что «вчера» они сбывались.
Это реализация почти как по учебнику логики Томаса Шеллинга — одного из теоретиков ядерного сдерживания: в кризисе важно не просто иметь силу, а сделать так, чтобы противник верил в твою готовность ею воспользоваться и боялся того, что ты пойдешь дальше, чем обещал.
ИИ как «машина последствий»
Есть еще один пласт этой истории, часто теряющийся за этическими дискуссиями: преимущество ИИ не только в «логике эскалации», но в способности просчитывать последствия с такой детализацией, которую человек физически не потянет, принимая решения в реальном времени.
Именно поэтому в военном планировании особую ценность имеет сочетание языковых моделей ИИ с компьютерным моделированием конфликтов. В такой связке ИИ не только предлагает стратегический шаг, но и сразу моделирует его последствия: масштабы разрушений и зоны поражения, ожидаемые военные и гражданские потери, экологические эффекты, риски техногенных аварий, потерю инфраструктурного и промышленного потенциала противника, а также политические и социальные последствия — от паники и миграции до реакции союзников и санкций. То, что раньше было набором отдельных экспертных справок и медленных штабных расчетов, в связке с искусственным интеллектом превращается в массовое сценарное производство: тысячи вариантов, чувствительность к мелким изменениям, статистическое «подсвечивание» самых рикованных траекторий.
К американской дискуссии нужно добавить еще одно измерение, которое часто оставляют «в скобках»: Китай также ускоряет развитие военных технологий, в частности военного искусственного интеллекта — как для тренировки армии, имеющей ограниченный боевой опыт, так и для создания будущей системы управления войсками с элементами ИИ. И это подтверждают данные исследований: с 2020 года китайские военные закупки системно включают сотни и тысячи «умных» решений, в первую очередь для обучения и интеллектуализированных боевых систем.
И пока США будут спорить о рамках применения Claude, конкурентная логика двигает процесс вперед. Китай не будет ждать, пока Запад согласует этические формулировки.
Исследование Пейна не доказывает, что ИИ обречен на агрессию. Оно доказывает другое: у алгоритма нет исторической памяти Хиросимы. У него есть функция цели, правила игры и давление времени. Но если в реальной политике такие системы все чаще будут использовать для анализа разведданных, сценарного планирования, оценки эскалации, «быстрых рекомендаций» руководству, то основным становится вопрос не о том, способен ли ИИ мыслить стратегически (да, способен), а о том, какую логику поведения мы допускаем в процессе принятия решений. Риск заключается не в том, что алгоритм станет «злым», а в том, что он станет слишком убедительным в логике, которую человеческая цивилизация привыкла считать неприемлемой.
В итоге исследование показывает главное: современные языковые модели уже могут действовать стратегически, но под давлением времени их решения могут становиться радикальнее, чем ограничения, которые они усвоили во время обучения.
Почему это важно
Никто не предлагает передать языковым моделям решение о ядерном оружии. Сценарии в исследовании специально искусственные — выдуманные государства, условные возможности, правила игры из теории игр. Так зачем это нужно? Я вижу три причины.
Первая. Возможности для исследования динамики кризисов. Модели могут играть в тысячи игр в разных сценариях, генерируя данные, которые потребовали бы десятилетий исторических наблюдений или чрезмерно дорогих экспериментов с людьми. Они могут исследовать стабильность договоренностей о сдерживании, динамику распространения или проводить стресс-тесты обязательств Альянса. И все это без этических и практических ограничений исследований на людях.
Управление эскалацией Claude напоминает сложное человеческое кризисное поведение; предубежденность оптимизма GPT перекликается с задокументированной человеческой склонностью выдавать желаемое за действительное; макиавеллиевские интриги Gemini отслеживают реальных лидеров, которые ориентируются в подобной местности. Понимание этих закономерностей, как их обоснованности, так и ограничений, позволит более ответственно использовать моделирование ИИ для теоретических и политических целей.
Вторая. Усовершенствование теории и практики. Турнир между языковыми моделями показал, как работают ловушки доверия, как формулировка сценария влияет на решения и когда сдерживание дает сбой. Эти выводы могут быть полезны для теоретического развития, уточнения нашего понимания того, когда сдерживание успешно или неудачно, как функционирует доверие в кризисных ситуациях и какие условия приводят к спирали эскалации. Они также могут быть полезными для решения практических вопросов: проектирования структуры сил, протоколов кризисной коммуникации и последствий для стабильности разного распределения возможностей.
Третья. Это подготовка к реальности, где ИИ уже участвует в военных процессах — логистике, анализе разведданных, поддержке решений. Речь идет не о «красной ядерной кнопке», а о выборе целей, оценке эскалации и кризисных сигналах. Понимание того, как системы искусственного интеллекта размышляют о стратегических проблемах, больше не является только академическим.
Вместе с тем эти результаты не стоит абсолютизировать — исследование имеет ряд важных ограничений. В турнире с участием языковых моделей использовали лишь 21 игру. Этого достаточно, чтобы увидеть основные закономерности, но мало для полной статистической уверенности. Сценарии были разными, однако не охватили все возможные кризисные конфигурации. К тому же протестированные модели быстро меняются, и новые версии могут демонстрировать другое поведение.
Поэтому нужны дальнейшие расширенные исследования, и отчасти эта работа уже идет.
Как когда-то эскалационная «лестница» Германа Кана или теория переговоров Томаса Шеллинга помогли осмыслить ядерную стратегию без реальных кризисов, так и ИИ-симуляции могут стать новым инструментом стратегического анализа.
Конфликт между Пентагоном и компанией Anthropic — это борьба не за контракт, а за характер будущей войны. И за то, кто именно — человек или алгоритм — будет определять границы допустимого в сценариях ядерной эскалации.
Мы любим повторять, что последнее слово должно оставаться за человеком. Но каким именно — опытным стратегом, способным просчитать последствия, или «вождями» автократий? А может, за еще одним администратором, который просто обслуживает систему?
Таким образом, дилемма будущего выглядит проще, чем кажется: способны ли люди ответственно руководить искусственным интеллектом, который они создали? И в этом смысле конфликт Пентагона с компанией Anthropic — только первый сигнал этой новой реальности.
