Суд у США підтримав Пентагон у внесенні Anthropic до “чорного списку”

Поділитися
Суд у США підтримав Пентагон у внесенні Anthropic до “чорного списку” © Getty Images
Компанія оскаржує статус ризику для нацбезпеки, що може позбавити її державних контрактів.

Федеральний апеляційний суд у Вашингтоні відмовився призупинити рішення Міністерства оборони США щодо Anthropic. Йдеться про визнання компанії ризиком для національної безпеки у сфері постачання. Розробник штучного інтелекту Claude вважає це політичним тиском через позицію щодо безпеки технологій, повідомляє Reuters.

Рішення суду дозволяє уряду США зберегти чинним маркування компанії як загрози для ланцюгів постачання під час розгляду справи. Це фактично блокує доступ Anthropic до контрактів Пентагону та може призвести до ширшого урядового “чорного списку”. Представники компанії заявили, що такі наслідки можуть коштувати бізнесу мільярди доларів і завдати репутаційної шкоди.

“Військова влада та оперативне керівництво належать головнокомандувачу та Міністерству війни, а не технологічній компанії”, — заявив виконувач обов’язків генерального прокурора Тодд Бланш.

Колегія суддів Апеляційного суду округу Колумбія відхилила клопотання Anthropic про призупинення рішення до остаточного розгляду. Водночас це рішення не є фінальним у справі.

У компанії заявили, що очікують на подальший розгляд і впевнені у своїй правовій позиції. Вони наполягають, що визнання їх ризиком є незаконним.

Позов Anthropic є одним із двох, поданих проти рішень Пентагону. Раніше федеральний суд у Каліфорнії заблокував один із наказів, зазначивши, що відомство могло незаконно діяти у відповідь на позицію компанії щодо безпеки штучного інтелекту.

Конфлікт виник після того, як Anthropic відмовилася дозволити використання свого чат-бота для військового спостереження або автономної зброї. У компанії пояснюють це етичними та безпековими міркуваннями.

У своїх позовах Anthropic заявляє про порушення прав, гарантованих Першою та П’ятою поправками до Конституції США. Йдеться про обмеження свободи слова та відсутність належної процедури оскарження.

Водночас Міністерство юстиції США наполягає, що рішення не пов’язане з позицією компанії. За версією уряду, воно стало наслідком відмови Anthropic погодитися з умовами контракту, що створює ризики для використання технологій у військових операціях.

У статті “Пентагон і Claude: що за лаштунками конфлікту?Олексій Костенкодетально розкриває причини безпрецедентного рішення Міноборони США внести Anthropic до “чорного списку”. Автор посилається на дослідження Кеннета Пейна, яке показало, що провідні мовні моделі ШІ у симуляціях ядерних криз схильні до швидкої ескалації: у 95% ігор ШІ доходив до етапу застосування тактичної ядерної зброї, особливо під тиском дедлайнів.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі