Двойные стандарты безопасности: АНБ использует ИИ Anthropic несмотря на запрет Пентагона — Axios

Поделиться
Двойные стандарты безопасности: АНБ использует ИИ Anthropic несмотря на запрет Пентагона — Axios © Getty Images
Компания открыла доступ к Mythos только 40 организациям, из которых точно известно 12.

Агентство национальной безопасности США (АНБ) использует модель искусственного интеллекта Mythos компании Anthropic, несмотря на то, что Министерство обороны считает ее "риском цепи поставок". Ситуация свидетельствует о конфликте между потребностями киберзащиты и политикой ограничений, сообщает Axios.

В феврале 2026 года Пентагон пытался отказаться от сотрудничества с Anthropic и призвал своих подрядчиков сделать то же самое. В то же время сейчас военные структуры расширяют применение инструментов компании, параллельно заявляя в суде о потенциальных угрозах национальной безопасности.

По информации источников Axios, возможно также более широкое применение модели в других подразделениях. Как именно АНБ использует Mythos, не уточняется, однако другие организации применяют модель для поиска уязвимостей в собственных системах кибербезопасности.

Anthropic предоставила доступ к Mythos примерно 40 организациям из-за опасений относительно ее кибервозможностей. Публично компания назвала лишь 12 из них, однако источники Axios утверждают, что АНБ входит в число тех, кого не упомянули.

Генеральный директор Anthropic Дарио Амодей недавно провел встречу с представителями Белого дома, в частности главой администрации Сьюзи Уайлз и министром финансов Скоттом Бессентом. Во время разговора обсуждали использование Mythos в государственном секторе и подходы компании к безопасности.

Ожидается, что дальнейшие шаги будут касаться взаимодействия других правительственных ведомств с этой моделью. Источники описывают встречу как продуктивную, хотя конкретные решения пока не объявляли.

Конфликт между сторонами обострился во время переговоров о контракте в начале года. Министерство обороны требовало от компании предоставить доступ к модели Claude для "всех законных целей", тогда как Anthropic настаивала на ограничениях, в частности по применению ИИ в массовой слежке и автономном оружии .

В статье Алексея Костенко "Пентагон и Claude: что за кулисами конфликта?" отмечается, что спор касается контроля над инструментом, способным моделировать сценарии ядерной эскалации с беспрецедентной детализацией. Это противостояние определяет будущие границы использования искусственного интеллекта в оборонной сфере.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме