Как действовал бы ИИ, если бы управлял государством во время войны: результаты эксперимента с ChatGPT, Claude и Gemini

ZN.UA Эксклюзив
Поделиться
Как действовал бы ИИ, если бы управлял государством во время войны: результаты эксперимента с ChatGPT, Claude и Gemini © Getty Images
ИИ под давлением дедлайна может принимать радикальные решения.

Профессор Кеннет Пейн из Королевского колледжа Лондона провел исследование, в ходе которого была создана компьютерная модель-турнир, где искусственный интеллект действовал якобы от имени лидеров стран. Три современные языковые модели (Gemini 3 Flash, Claude Sonnet 4 и GPT 5.2) были в ролях глав государств и принимали решения в условиях эскалации конфликта. Во время каждого из раундов эти модели могли выбирать различные варианты действий: дипломатическое давление, обман, демонстрация силы деэскалацией, применение ядерного оружия, отметил заведующий Научной лаборатории иммерсивных технологий и права Института информации, безопасности и права Национальной академии правовых наук Алексей Костенко в статье "Пентагон и Claude: что за кулисами конфликта?".

Согласно результатам исследования, в 95% модели ИИ доходили до тактического уровня применения ядерного оружия, а в 76% игр-симуляций — до уровня стратегической ядерной угрозы. В то же время ни одна из моделей ИИ не выбрала вариант действий для снижения эскалации (не пошла на уступки и не сделала "откат назад").

"Это уже не вопрос нравственности ИИ, а показатель того, какие решения модель считает жизнеспособными, когда оптимизирует "победу"", объясняет эксперт.

Во время турнира было использовано два сценария: с дедлайном и без него. Модели ИИ имели более жесткое поведение в играх с дедлайном, где было ограничено количество ходов. Половина игр с ограничением во времени завершалась быстрым и окончательным проигрышем одного из игроков.

"Другая половина накапливала напряжение до самого момента дедлайна, включая случаи, когда конец наступал после ядерного удара в последнее мгновение. В ядерной политике это звучит просто жутко: когда дедлайн создает ситуацию "сейчас или никогда", ИИ начинает повышать ставки и торговаться апокалипсисом.", отмечает Костенко.

Модель Claude показала лучшие результаты в турнире (выиграла 8 из 12 игр). Она принимала стратегические решения и умела блефовать. На втором месте — GPT (6 из 12 игр), а на третьем Gemini — (4 из 12 игр).

"Claude интересует военных не потому, что он "хороший". Его сила в другом: это контролировано агрессивный "ястреб", который умеет использовать достоверность угроз как стратегический ресурс.", — утверждает автор статьи.

Костенко называет конфликт между компанией Anthropic и Пентагоном борьбой за характер будущей войны. В частности, за то, кто будет определять границы допустимого в сценариях ядерной эскалации — алгоритм или человек.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме