Администрация Дональда Трампа обсуждает возможность введения государственного надзора за моделями искусственного интеллекта. Речь идет о возможной проверке систем до их публичного запуска. Изменение курса происходит после появления мощных и потенциально опасных технологий, таких как Mythos от Anthropic, сообщает The New York Times.
Детали возможного нового надзора за ИИ
По словам американских чиновников, Белый дом обсуждает создание специальной рабочей группы, которая будет заниматься оценкой таких систем. Речь идет о потенциальном указе, который объединит представителей правительства и технологических компаний для разработки процедур контроля. Среди идей — формализованный процесс проверки новых моделей ИИ перед их запуском.
Ранее чиновники Белого дома провели встречи с руководителями Anthropic, Google и OpenAI, где обсуждали эти инициативы. По данным источников NYT, рабочая группа может ориентироваться на подход Великобритании, где несколько государственных органов контролируют соответствие ИИ стандартам безопасности.
В частности, в Белом доме рассматривают возможность привлечения нескольких структур к контролю за ИИ, в частности офиса национального кибердиректора и разведывательных органов. Дополнительно могут пересмотреть роль Центра стандартов и инноваций в сфере ИИ, созданного при администрации Байдена.
Изменение политики Трампа
Обсуждения означают резкие изменения в политике администрации Трампа в отношении искусственного интеллекта. После возвращения к власти он придерживался стратегии развития технологий без регуляторных ограничений, стремясь обеспечить США безоговорочное глобальное лидерство в гонке с Китаем.
"Мы сделаем эту отрасль абсолютно ведущей, ведь сейчас она — как прекрасный только что родившийся младенец. Мы должны вырастить этого младенца и дать ему возможность развиваться... Мы не можем остановить его политикой. Мы не можем остановить его бессмысленными правилами", — заявлял Трамп ранее.
Чрезвычайный и полномочный посол Украины Сергей Корсунский в своей статье "ИИ без ограничений: план Трампа как указатель к пропасти" отмечал, что отсутствие надзора за нейросети создает беспрецедентные риски для мировой безопасности и социальной стабильности. Такой подход, по его словам, игнорирует угрозы дезинформации, использование технологий террористами и катастрофические экологические последствия из-за чрезмерного потребления энергии дата-центрами.
Влияние Mythos от Anthropic
Дополнительным фактором стало появление модели Mythos от Anthropic. Компания заявила, что система настолько эффективна в выявлении уязвимостей в программном обеспечении, что может вызвать "переломный момент" в кибербезопасности, и решила не открывать ее для широкого доступа. Недавно администрация Дональда Трампа также запретила масштабировать этот ИИ.
В Белом доме опасаются политических последствий возможных кибератак с использованием ИИ. Также администрация оценивает, могут ли новые модели быть полезными для Министерства войны США и разведывательных служб. Напомним, что Пентагон уже заключил семь соглашений с ведущими технологическими компаниями для использования их инструментов.
Реакция на сообщения о возможных изменениях
Некоторые чиновники выступают за систему, которая предоставит правительству приоритетный доступ к новым моделям без блокировки их релиза. В то же время часть технологических компаний предостерегает, что чрезмерный контроль может замедлить развитие США в конкуренции с Китаем.
Вероятное изменение подхода происходит на фоне роста общественного беспокойства о влиянии ИИ на рабочие места, энергопотребление, образование, конфиденциальность и психическое здоровье. По данным Pew Research Center, около половины американцев — как республиканцев, так и демократов — больше обеспокоены, чем увлечены развитием технологии.
Официально Белый дом пока не подтвердил подготовку указа, называя обсуждения "спекуляциями". Окончательное решение, по словам представителей администрации, должен объявить сам президент.
Конфликт Anthropic с Пентагоном
Ситуацию осложняет конфликт между Anthropic и Пентагоном относительно контракта на 200 миллионов долларов и использования ИИ в военных целях. Министерство войны США требовало от компании предоставить доступ к модели Claude для "всех законных целей", тогда как Anthropic настаивала на ограничениях, в частности по применению ИИ в массовом слежении и автономном оружии .
Впоследствии министр обороны Пит Хегсет официально признал Anthropic риском для цепи поставок, что фактически должно было заблокировать использование ее продуктов в контрактах Пентагона и не только. Anthropic пытается оспорить это решение в суде, однако пока он поддержал позицию Пентагона.
Несмотря на это, технологии Anthropic частично используются правительством, в частности в системе Maven для анализа разведданных и определения целей. Также модель Mythos применялась Агентством национальной безопасности для оценки киберугроз.
