Суд в США поддержал Пентагон во внесении Anthropic в "черный список"

Поделиться
Суд в США поддержал Пентагон во внесении Anthropic в © Getty Images
Компания оспаривает статус риска для нацбезопасности, что может лишить ее государственных контрактов.

Федеральный апелляционный суд в Вашингтоне отказался приостановить решение Министерства обороны США по Anthropic. Речь идет о признании компании риском для национальной безопасности в сфере снабжения. Разработчик искусственного интеллекта Claude считает это политическим давлением из-за позиции по безопасности технологий, сообщает Reuters.

Решение суда позволяет правительству США сохранить в силе маркировку компании как угрозы для цепей поставок во время рассмотрения дела. Это фактически блокирует доступ Anthropic к контрактам Пентагона и может привести к более широкому правительственному "черному списку". Представители компании заявили, что такие последствия могут стоить бизнесу миллиарды долларов и нанести репутационный ущерб.

"Военная власть и оперативное руководство принадлежат главнокомандующему и Министерству войны, а не технологической компании", — заявил исполняющий обязанности генерального прокурора Тодд Бланш.

Коллегия судей Апелляционного суда округа Колумбия отклонила ходатайство Anthropic о приостановлении решения до окончательного рассмотрения. В то же время это решение не является финальным в деле.

В компании заявили, что ожидают дальнейшего рассмотрения и уверены в своей правовой позиции. Они настаивают, что признание их риском является незаконным.

Иск Anthropic является одним из двух, поданных против решений Пентагона. Ранее федеральный суд в Калифорнии заблокировал один из приказов, отметив, что ведомство могло незаконно действовать в ответ на позицию компании по безопасности искусственного интеллекта.

Конфликт возник после того, как Anthropic отказалась разрешить использование своего чат-бота для военного наблюдения или автономного оружия. В компании объясняют это этическими соображениями и соображениями безопасности.

В своих исках Anthropic заявляет о нарушении прав, гарантированных Первой и Пятой поправками к Конституции США. Речь идет об ограничении свободы слова и отсутствии надлежащей процедуры обжалования.

В то же время Министерство юстиции США настаивает, что решение не связано с позицией компании. По версии правительства, оно стало следствием отказа Anthropic согласиться с условиями контракта, что создает риски для использования технологий в военных операциях.

В статье "Пентагон и Claude: что за кулисами конфликта?" Алексей Костенко детальнораскрывает причины беспрецедентного решения Минобороны США внести Anthropic в "черный список". Автор ссылается на исследование Кеннета Пейна, которое показало, что ведущие речевые модели ИИ в симуляциях ядерных кризисов склонны к быстрой эскалации: в 95% игр ИИ доходил до этапа применения тактического ядерного оружия, особенно под давлением дедлайнов.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме