Федеральный апелляционный суд в Вашингтоне отказался приостановить решение Министерства обороны США по Anthropic. Речь идет о признании компании риском для национальной безопасности в сфере снабжения. Разработчик искусственного интеллекта Claude считает это политическим давлением из-за позиции по безопасности технологий, сообщает Reuters.
Решение суда позволяет правительству США сохранить в силе маркировку компании как угрозы для цепей поставок во время рассмотрения дела. Это фактически блокирует доступ Anthropic к контрактам Пентагона и может привести к более широкому правительственному "черному списку". Представители компании заявили, что такие последствия могут стоить бизнесу миллиарды долларов и нанести репутационный ущерб.
"Военная власть и оперативное руководство принадлежат главнокомандующему и Министерству войны, а не технологической компании", — заявил исполняющий обязанности генерального прокурора Тодд Бланш.
Коллегия судей Апелляционного суда округа Колумбия отклонила ходатайство Anthropic о приостановлении решения до окончательного рассмотрения. В то же время это решение не является финальным в деле.
В компании заявили, что ожидают дальнейшего рассмотрения и уверены в своей правовой позиции. Они настаивают, что признание их риском является незаконным.
Иск Anthropic является одним из двух, поданных против решений Пентагона. Ранее федеральный суд в Калифорнии заблокировал один из приказов, отметив, что ведомство могло незаконно действовать в ответ на позицию компании по безопасности искусственного интеллекта.
Конфликт возник после того, как Anthropic отказалась разрешить использование своего чат-бота для военного наблюдения или автономного оружия. В компании объясняют это этическими соображениями и соображениями безопасности.
В своих исках Anthropic заявляет о нарушении прав, гарантированных Первой и Пятой поправками к Конституции США. Речь идет об ограничении свободы слова и отсутствии надлежащей процедуры обжалования.
В то же время Министерство юстиции США настаивает, что решение не связано с позицией компании. По версии правительства, оно стало следствием отказа Anthropic согласиться с условиями контракта, что создает риски для использования технологий в военных операциях.
В статье "Пентагон и Claude: что за кулисами конфликта?" Алексей Костенко детальнораскрывает причины беспрецедентного решения Минобороны США внести Anthropic в "черный список". Автор ссылается на исследование Кеннета Пейна, которое показало, что ведущие речевые модели ИИ в симуляциях ядерных кризисов склонны к быстрой эскалации: в 95% игр ИИ доходил до этапа применения тактического ядерного оружия, особенно под давлением дедлайнов.
