NYT: Роботы-убийцы под управлением искусственного интеллекта становятся реальностью, страны начали спорить об ограничении нового оружия

Поделиться
NYT: Роботы-убийцы под управлением искусственного интеллекта становятся реальностью, страны начали спорить об ограничении нового оружия © Батальон «Братство»
Обеспокоенные рисками войны роботов некоторые страны хотят ввести новые правовые ограничения, но США и другие большие государства сопротивляются.

Это похоже на что-то из сферы научной фантастики. Рои роботов-убийц самостоятельно выслеживают свои цели и без разрешения человека прилетают, чтобы совершить убийство. Но эта фантазия уж очень близка к воплощению в реальности. США, Китай и несколько других стран стремительно развивают и внедряют новые технологии, способные изменить природу войны. Решения о жизни и смерти могут отдать на рассмотрение автономным дронам, оснащенным программами искусственного интеллекта.

«Эта перспектива настолько беспокоит правительства многих стран, что они пытаются привлечь к ней внимание, предлагая в ООН ввести юридически обязательные правила использования того, что военные называют летальным автономным оружием», - пишет New York Times.

«Это действительно одна из важнейших переломных точек для человечества. Какая роль человека в применении силы – это абсолютно фундаментальный вопрос безопасности, правовой и нравственный вопрос», – сказал Александр Кментт, который выступает в роли главного представителя Австрии на переговорах по автономному оружию.

Но хотя ООН предоставляет правительствам платформу для выражения своих беспокойств, этот процесс вряд ли приведет к введению новых весомых ограничений. США, Россия, Австралия, Израиль и другие утверждают, что в настоящее время нет необходимости в новом международном законодательстве. В свою очередь Китай хочет определить любое правовое ограничение настолько узко, что оно будет иметь незначительный практический эффект, говорят адвокаты контроля над вооружениями. В результате дебаты завязались в процедурном узле с небольшими шансами достичь прогресса.

«Мы не считаем, что сейчас именно то время, чтобы обсуждать такое», - сказал заместитель председателя российской делегации в ООН Константин Воронцов дипломатам, недавно собравшимся в подвальном конференц-зале в штаб-квартире ООН в Нью-Йорке.

Дебаты о рисках искусственного интеллекта привлекли новое внимание в последние несколько дней из-за борьбы за контроль над OpenAI, ведущей мировой компанией по разработке ИИ, чьи руководители разошлись во взглядах на то, достаточно ли они учитывают угрозы от новой технологии. А на прошлой неделе официальные представители Китая и США обсудили потенциальные ограничения использования ИИ при принятии решений о развертывании ядерного оружия.

На этом фоне вопрос о том, какие ограничения должны быть установлены на использование летального автономного оружия, приобрел новую остроту и пока сводится к тому, достаточно ли ООН просто принять принципы, которые не будут налагать какие-либо конкретные обязательства. Собственно именно такой выход и предлагают США.

«Нашей делегации будет очень тяжело принять слово «должны»», – сказал руководитель отдела по международным соглашениям Госдепартамента США Джошуа Доросин другим участникам переговоров во время дебатов в мае по формулировкам предложенных ограничений.

Доросин и члены американской делегации, в состав которой входит представитель Пентагона, утверждали, что вместо одобрения нового международного закона ООН должна разъяснить, что существующие международные положения о правах человека уже запрещают государствам использовать оружие, направленное против гражданских лиц или наносящее им непропорционально большой вред.

Но позиция крупных государств лишь усугубляет беспокойство среди меньших стран. Они озабочены тем, что смертоносное автономное оружие может стать привычным явлением на поле боя до того, как будет достигнута договоренность о правилах его использования.

«Самоуспокоение больше не кажется приемлемым вариантом. Окно возможностей для действий быстро уменьшается, поскольку мы готовимся к технологическому прорыву», – заявил посол Пакистана Халил Хашми во время встречи в штаб-квартире ООН.

Стремительное развитие искусственного интеллекта и интенсивное использование беспилотников в войнах, которые продолжаются в Украине и на Ближнем Востоке, сделали эту проблему еще более актуальной. Пока что беспилотники, как правило, зависят от людей-операторов в выполнении смертельных миссий. Но разрабатывается программное обеспечение, которое скоро позволит им находить и выбирать цели более самостоятельно.

Интенсивное глушение радиосвязи и GPS в Украине только ускорило этот процесс, поскольку автономные дроны часто могут продолжать работать даже тогда, когда связь прервана.

«Это не сюжет антиутопического романа, а уже приближающаяся реальность», - сказал премьер-министр Антигуа и Барбуды Гастон Браун на недавней встрече в ООН.

Представители Пентагона дали понять, что они готовятся к масштабному развертыванию автономных вооружений. Заместитель министра обороны США Кэтлин Гикс объявила этим летом, что в течение следующих двух лет американская армия «развернет автономные системы в многотысячных масштабах», отметив, что конкуренция с Китаем вынуждает Америку отдавать предпочтение «небольшим, умным, дешевым и очень многочисленным платформам».

New York Times пишет, что концепция автономного оружия не нова. Противопехотные мины, которые взрываются автоматически, используются со времен Гражданской войны в Америке. США также имеют ракетные системы, которые полагаются на радары для автономного наведения на цель и ее поражения. Изменение заключается во внедрении искусственного интеллекта, который может предоставить системам вооружений возможность самостоятельно принимать решения после получения и обработки информации.

США уже приняли собственную политику, устанавливающую определенные ограничения на использование искусственного интеллекта и летального автономного оружия. В частности, в этом году Пентагон пересмотрел положение своего документа под названием "Автономность в системах вооружений", а также связанную с ним "Политическую декларацию об ответственном использовании искусственного интеллекта и автономии" Госдепартамента. Вашингтон призывает другие страны тоже присоединиться к этой декларации.

Политика Пентагона запрещает использование какого-либо нового автономного оружия или даже его разработку без одобрения высшим руководством Минобороны. Такое оружие должно использоваться в определенной географической зоне в течение ограниченного периода времени. А если оружие контролируется ИИ, военнослужащие должны сохранять возможность отключать или деактивировать развернутые системы, которые демонстрируют непредсказуемое поведение. Неназванный генерал ВВС США сказал New York Times, что по крайней мере на переходном этапе автономного оружия все равно потребуется одобрение человека перед нанесением удара. Но министр ВВС США Фрэнк Кендалл в отдельном интервью сказал, что эти машины со временем должны обладать полномочиями самостоятельно совершать летальные действия, оставаясь при этом под наблюдением человека в процессе их развертывания.

«Индивидуальные решения против неприятия индивидуальных решений – это разница, определяющая победу и поражение. А никто не собирается проигрывать. Я не думаю, что те, против кого нам придется выступить, пойдут на такое. И у них будет огромное преимущество, если мы наложим на себя такие ограничения», - сказал Кендалл.

Офицер морской пехоты в отставке Томас Х. Гаммес, работающий сейчас научным сотрудником в Национальном университете обороны Пентагона, сказал, что создание и использование автономных вооружений – это «нравственный императив для США и других демократических стран». Он утверждал, что «неспособность сделать это в большом конфликте приведет ко многим смертям среди военных и гражданских, и, возможно, к поражению в войне».

Некоторые адвокаты контроля над вооружениями и дипломаты не соглашаются с этим, утверждая, что управляемое искусственным интеллектом летальное оружие без участия человека изменит природу войны. Непосредственная нравственная роль людей в принятии решений о лишении кого-то жизни исчезнет. Критики предостерегают, что оружие с ИИ иногда будет действовать непредсказуемо и, вероятно, будет ошибаться в идентификации целей, как это происходит с попадающими в аварии автономными автомобилями.

Новое оружие также может сделать более вероятным применение смертоносной силы в военное время, поскольку военные, которые его применяют, не будут сразу подвергать опасности своих солдат. Или же эскалация может происходить гораздо быстрее. Группы по контролю над вооружениями, такие как Международный комитет Красного Креста и Stop Killer Robots, а также национальные делегации Австрии, Аргентины, Новой Зеландии, Швейцарии и Коста-Рики предложили различные ограничения.

Некоторые из них предлагают глобально запретить смертоносное автономное оружие, прямо нацеленное на людей. Другие требуют, чтобы это оружие оставалось под «значительным человеческим контролем» и чтобы оно использовалось в ограниченных районах в течение определенного времени.

Австрийский дипломат Кментт признал, что ООН испытывает проблемы с обеспечением выполнения существующих договоров, устанавливающих ограничения на то, как ведутся войны. Но все еще существует необходимость в создании нового юридически обязательного стандарта.

«То, что кто-то всегда будет убивать, не означает, что вам не нужно законодательство, чтобы запретить это. Пока вся эта сфера абсолютно неурегулирована», - сказал он.

Но Доросин неоднократно возражал против предложенных требований, которые США считают слишком двусмысленными или не желают принимать. К примеру, Вашингтон не считает, что автономное оружие должно быть под «значительным человеческим контролем». Американская делегация предпочитает формулировку «в рамках ответственной человеческой субординации».

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме