Компанія Google уклала угоду з Міністерством оборони США про використання своїх моделей штучного інтелекту в секретних урядових проєктах, зокрема для “будь-яких законних урядових цілей”. Згідно з документом, Google також не матиме права контролювати або накладати вето на законні оперативні рішення уряду, передає Reuters.
Засекречені мережі Пентагону використовуються для широкого спектра чутливих операцій — від планування військових місій до систем наведення та вибору цілей. За даними Reuters, у 2025 році Міноборони США підписало контракти на суму до 200 мільйонів доларів кожен із найбільшими ШІ-компаніями, зокрема OpenAI, Anthropic і Google.
Особливістю нової угоди стало те, що Google зобов’язується на запит уряду коригувати налаштування безпеки своїх ШІ-систем і змінювати фільтри захисту. Саме це питання останнім часом викликало найбільше суперечок між урядом США та технологічними компаніями.
У тексті угоди йдеться, що система штучного інтелекту “не призначена і не повинна використовуватися для внутрішнього масового спостереження або автономної зброї (включно з вибором цілей) без належного людського нагляду та контролю”. Втім, документ також містить важливе уточнення: Google не має права контролювати або накладати вето на законні оперативні рішення уряду — компанія фактично не зможе впливати на конкретне військове застосування технологій.
У Google підтвердили, що працюють з державними структурами як у засекречених, так і у відкритих проєктах. Представник компанії заявив Reuters, що корпорація залишається відданою принципу невикористання ШІ для масового внутрішнього стеження або автономної зброї без людського контролю.
“Ми вважаємо, що надання API-доступу до наших комерційних моделей, зокрема на інфраструктурі Google, із галузевими стандартами безпеки є відповідальним підходом до підтримки національної безпеки”, — заявив речник компанії.
На початку цього року розгорівся конфлікт між Пентагоном та Anthropic. Компанія відмовилася знімати обмеження на використання свого ШІ для автономної зброї та внутрішнього спостереження, після чого Пентагон визнав розробника Claude потенційним ризиком для ланцюга постачання.
Згодом Anthropic подала до федерального суду Каліфорнії дві заяви, в яких заперечує звинувачення Пентагону. Суд заблокував один із наказів, зазначивши, що відомство могло незаконно діяти у відповідь на позицію компанії щодо безпеки ШІ. Федеральний апеляційний суд у Вашингтоні, своєю чергою, відмовився призупинити рішення Міністерства оборони США щодо Anthropic.
Водночас одразу після відмови Anthropic “знімати запобіжники” з ШІ для військових цілей Пентагон уклав угоду з компанією OpenAI. За словами генерального директора Сема Альтмана, їхня домовленість з Міністерством оборони США передбачає запровадження обмежень, подібних до тих, яких вимагала Anthropic.
