США попытаются наладить сотрудничество с Китаем по использованию ИИ в военных целях — FT

Поделиться
США попытаются наладить сотрудничество с Китаем по использованию ИИ в военных целях — FT © Vlast.kz
Военные стратеги США и Китая опасаются отстать от своих соперников в освоении искусственного интеллекта и других развивающихся технологий.

Ожидается, что этой весной США и Китай начнут переговоры о безопасности искусственного интеллекта. Надежды на них возлагают небольшие. Возможно, это будут не более чем беседы специалистов и аналитиков, а не высокопоставленных правительственных чиновников. Но ранние малопродуктивные разговоры не всегда становятся полным провалом — пример тому служат переговоры по ядерному оружию во время холодной войны. Неудачные попытки договориться с Москвой в 1950-х годах проложили путь к жизненно важным прорывам в отношениях с советской властью спустя десять лет, пишет Financial Times.

Аналогичные переговоры США с Пекином по ИИ сегодня могут заложить основу для момента, когда лидеры обеих стран поймут, сколько они могут выиграть от общих обязательств. Искусственный интеллект и другие новые технологии уже занимают центральное место в военной конкуренции. Китай использует ИИ для киберопераций против США, а также модернизации своих военных систем. И хотя ИИ, как и ядерным технологиям, можно найти мирное применение, риск злоупотребления может быть очень велик.

Американско-советские ядерные переговоры в 1950-х годах, казалось, служили не более чем площадкой для взаимных обвинений и выражения претензий. Но техническая конференция 1958 года по вопросам запрета ядерных испытаний дала надежду на то, что существует технический способ проверить, было ли испытано ядерное оружие той или иной страной.

Только в 1963 году, после долгих лет диалога, США и СССР достигли двух прорывных соглашений. Договор о частичном запрещении ядерных испытаний запрещал испытания ядерного оружия в атмосфере, океане и космическом пространстве. Хотя обе сверхдержавы продолжали подземные испытания, частичный запрет на испытания сдерживал конкуренцию и замедлял гонку вооружений.

В том же году дипломаты заключили соглашение о создании "горячей линии", чтобы предоставить руководителям правительств стран, обладающих ядерным оружием, доступ к надежному и безопасному каналу связи во время кризисов. Хотя технология "горячей линии" усовершенствовалась, США и Россия поддерживают эту связь и сегодня.

Конечно, именно Карибский кризис в октябре 1962 года (напряженное противостояние между Советским Союзом и Соединенными Штатами в результате тайного размещения Советским Союзом ядерных ракет на Кубе) убедил лидеров США и СССР в необходимости срочно снизить вероятность ядерной войны. Но соглашения 1963 года были достигнуты быстро благодаря фундаменту, заложенному "провальными" переговорами 1950-х годов. Дипломаты уже имели глубокие знания по этим вопросам.

Сегодня военные стратеги США и Китая опасаются отстать от своих соперников в освоении искусственного интеллекта и других развивающихся технологий. Именно такая динамика разжигает дорогостоящую гонку вооружений, увеличивает вероятность международных кризисов и повышает вероятность перерастания конфликтов в крупномасштабные войны.

Каналы деэскалации, подобные "горячей линии" Вашингтон-Москва, необходимы еще до наступления кризиса. Американские официальные лица тоже давно подчеркивают ценность аналогичных "горячих линий" с партнерами в Китае. До сих пор Пекин в большинстве своем отказывался использовать некоторые установленные каналы во время кризиса, поэтому и на этом фронте есть возможности для прогресса.

Попытки наладить взаимодействие с Китаем по военному использованию ИИ могут показаться бессмысленными. Но по сравнению с напряженностью между США и СССР в 1950-х и начале 1960-х годов — эпохой, обозначенной несколькими кризисами, едва не переросшими в ядерную войну, — нынешние отношения между США и Китаем на самом деле не так уж плохи. Если переговоры пройдут успешно, уровень безопасности в США заметно повысится. Если же они не преуспеют, то минусов практически нет.

Напомним, что ученые рассказали о новой опасности ИИ. Она связана с тем, что модели ИИ учатся на данных, сгенерированных нейросетями. О технологических возможностях ИИ в военной сфере читайте в статье Сергея Козьякова "Регулирование искусственного интеллекта в военной сфере: ограничение или поощрение? "

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме