Компания Google заключила соглашение с Министерством обороны США об использовании своих моделей искусственного интеллекта в секретных правительственных проектах, в частности для "любых законных правительственных целей". Согласно документу, Google также не будет иметь права контролировать или накладывать вето на законные оперативные решения правительства, передает Reuters.
Засекреченные сети Пентагона используются для широкого спектра чувствительных операций — от планирования военных миссий до систем наведения и выбора целей. По данным Reuters, в 2025 году Минобороны США подписало контракты на сумму до 200 миллионов долларов каждый с крупнейшими ИИ-компаниями, в частности OpenAI, Anthropic и Google.
Особенностью нового соглашения стало то, что Google обязуется по запросу правительства корректировать настройки безопасности своих ИИ-систем и менять фильтры защиты. Именно этот вопрос в последнее время вызвал больше всего споров между правительством США и технологическими компаниями.
В тексте соглашения говорится, что система искусственного интеллекта "не предназначена и не должна использоваться для внутреннего массового наблюдения или автономного оружия (включая выбор целей) без надлежащего человеческого надзора и контроля". Впрочем, документ также содержит важное уточнение: Google не имеет права контролировать или накладывать вето на законные оперативные решения правительства — компания фактически не сможет влиять на конкретное военное применение технологий.
В Google подтвердили, что работают с государственными структурами как в засекреченных, так и в открытых проектах. Представитель компании заявил Reuters, что корпорация остается приверженной принципу неиспользования ИИ для массовой внутренней слежки или автономного оружия без человеческого контроля.
"Мы считаем, что предоставление API-доступа к нашим коммерческим моделям, в том числе на инфраструктуре Google, с отраслевыми стандартами безопасности является ответственным подходом к поддержке национальной безопасности", — заявил представитель компании.
В начале этого года разгорелся конфликт между Пентагоном и Anthropic. Компания отказалась снимать ограничения на использование своего ИИ для автономного оружия и внутреннего наблюдения, после чего Пентагон признал разработчика Claude потенциальным риском для цепи поставок.
Впоследствии Anthropic подала в федеральный суд Калифорнии два заявления, в которых отрицает обвинения Пентагона. Суд заблокировал один из приказов, отметив, что ведомство могло незаконно действовать в ответ на позицию компании по безопасности ИИ. Федеральный апелляционный суд в Вашингтоне, в свою очередь, отказался приостановить решение Министерства обороны США по Anthropic.
В то же время сразу после отказа Anthropic "снимать предохранители" с ИИ для военных целей Пентагон заключил соглашение с компанией OpenAI. По словам генерального директора Сэма Альтмана, их договоренность с Министерством обороны США предусматривает введение ограничений, подобных тем, которых требовала Anthropic.
