UA / RU
Поддержать ZN.ua

Двойные стандарты безопасности: АНБ использует ИИ Anthropic несмотря на запрет Пентагона — Axios

Компания открыла доступ к Mythos только 40 организациям, из которых точно известно 12.

Агентство национальной безопасности США (АНБ) использует модель искусственного интеллекта Mythos компании Anthropic, несмотря на то, что Министерство обороны считает ее "риском цепи поставок". Ситуация свидетельствует о конфликте между потребностями киберзащиты и политикой ограничений, сообщает Axios.

В феврале 2026 года Пентагон пытался отказаться от сотрудничества с Anthropic и призвал своих подрядчиков сделать то же самое. В то же время сейчас военные структуры расширяют применение инструментов компании, параллельно заявляя в суде о потенциальных угрозах национальной безопасности.

По информации источников Axios, возможно также более широкое применение модели в других подразделениях. Как именно АНБ использует Mythos, не уточняется, однако другие организации применяют модель для поиска уязвимостей в собственных системах кибербезопасности.

Читайте также: Ажиотаж вокруг Mythos от Anthropic: почему новая модель ИИ напугала правительства и мировые банки

Anthropic предоставила доступ к Mythos примерно 40 организациям из-за опасений относительно ее кибервозможностей. Публично компания назвала лишь 12 из них, однако источники Axios утверждают, что АНБ входит в число тех, кого не упомянули.

Генеральный директор Anthropic Дарио Амодей недавно провел встречу с представителями Белого дома, в частности главой администрации Сьюзи Уайлз и министром финансов Скоттом Бессентом. Во время разговора обсуждали использование Mythos в государственном секторе и подходы компании к безопасности.

Ожидается, что дальнейшие шаги будут касаться взаимодействия других правительственных ведомств с этой моделью. Источники описывают встречу как продуктивную, хотя конкретные решения пока не объявляли.

Конфликт между сторонами обострился во время переговоров о контракте в начале года. Министерство обороны требовало от компании предоставить доступ к модели Claude для "всех законных целей", тогда как Anthropic настаивала на ограничениях, в частности по применению ИИ в массовой слежке и автономном оружии .

В статье Алексея Костенко "Пентагон и Claude: что за кулисами конфликта?" отмечается, что спор касается контроля над инструментом, способным моделировать сценарии ядерной эскалации с беспрецедентной детализацией. Это противостояние определяет будущие границы использования искусственного интеллекта в оборонной сфере.