Генеральный директор Anthropic Дарио Амодей заявил о разногласиях с Министерством войны США относительно условий использования искусственного интеллекта правительством. Компания отказывается снимать ограничения на массовую внутреннюю слежку и полностью автономное оружие, однако ранее объявила о смягчении политики безопасности из-за конкуренции. В Пентагоне пригрозили исключением Anthropic из систем.
Anthropic подтвердила, что активно сотрудничает с Министерством войны США и разведывательным сообществом, однако отказывается соглашаться на требование принимать "любое законное использование" своих моделей без дополнительных гарантий. Компания настаивает на сохранении двух принципиальных ограничений — в отношении массового внутреннего наблюдения и полностью автономного оружия.
Согласно заявлению, Anthropic — одна из первых ведущих компаний, которая развернула свои модели в секретных правительственных сетях США и национальных лабораториях. Модель Claude используется в структурах национальной безопасности для анализа разведданных, моделирования, оперативного планирования и киберопераций.
Компания также заявила, что отказалась от нескольких сотен миллионов долларов дохода, ограничив использование Claude структурами, связанными с Коммунистической партией Китая. В Anthropic подчеркнули, что поддерживают жесткий экспортный контроль чипов и противодействуют попыткам кибератак, направленных на злоупотребление их системами.
Однако в Anthropic считают, что массовое внутреннее наблюдение с помощью ИИ представляет риск для базовых свобод человека. По словам Амодея, это позволит накапливать данные о передвижениях и сетевой активности граждан, а главная опасность заключается в способности ИИ автоматически объединять разрозненные фрагменты информации в исчерпывающее досье на любое лицо в массовом масштабе.
Вторым неприемлемым для компании направлением является полностью автономное оружие, которое "исключает человека" из процесса принятия решений. В компании отмечают, что современные системы искусственного интеллекта недостаточно надежны для такого применения, а также не могут заменить критическое суждение военных специалистов.
По словам Амодея, Пентагон пригрозил исключить Anthropic из своих систем в случае сохранения ограничений. Кроме того, компании могут присвоить статус "риска цепи поставок" — ярлык для противников США, который никогда ранее не применялся к американской компании, и ссылаться Закон об оборонном производстве для принудительного снятия гарантий.
"Несмотря на это, угрозы не меняют нашей позиции: мы не можем с чистой совестью принять их просьбу", — отметил руководитель Anthropic. Он добавил, что компания готова обеспечить плавный переход к другому поставщику, если Министерство войны решит разорвать сотрудничество.
Anthropic заявляет, что ее модели будут оставаться доступными для военных на предложенных условиях столько, сколько потребуется. Компания подчеркнула готовность и в дальнейшем поддерживать национальную безопасность США с соблюдением определенных этических границ.
Дарио Амодей ранее предупреждал об экзистенциальной угрозе от сверхмощного ИИ, способного уже через год-два превзойти возможности нобелевских лауреатов. Он призвал правительства вмешаться, поскольку триллионные прибыли отрасли могут заставлять разработчиков замалчивать реальные масштабы опасности.
