Искусственный интеллект: Оставив войну компьютерам, мир станет опаснее – The Economist

Поделиться
Искусственный интеллект: Оставив войну компьютерам, мир станет опаснее – The Economist © 4pda.ru
Поскольку компьютеры играют все большую роль в войне, опасность для людей возрастает.

У соперничества двух мировых супердержав – Китая и США – много аспектов: от торговой войны до студенческих виз. Один из самых тревожных и наименее понятных – это борьба за ведение войны с использованием искусственного интеллекта. Обе страны вкладывают большие суммы в военизированный искусственный интеллект: от автономных роботов до программного обеспечения, которое дает генералам быстрые тактические советы в разгар битвы. Китай обеспокоен тем, что преимущество у США благодаря прорывам западных компаний. США опасается, что у китайских автократов есть свободный доступ к данным, и они могут привлекать местные технологические фирмы для работы на государство. Ни одна из сторон не хочет отставать. Как сказал в прошлом месяце генерал Джек Шанахан, который является ключевой фигурой в Пентагоне по вопросам искусственного интеллекта: "То, что я не хочу видеть, - это будущее, в котором у наших потенциальных противников есть сила, полностью поддерживаемая искусственным интеллектом, а у нас ее нет", говорится в статье "Контроль над разумом" в журнале The Economist.

Оружие с искусственным интеллектом может работать со сверхчеловеческой скоростью и точностью. Но оно также может нарушить баланс сил. Чтобы получить военное преимущество, соблазн для армий будет состоять в том, чтобы позволить ИИ не только рекомендовать решения, но и отдавать приказы. У этого могут быть серьезные последствия. Система приказов, которая способна мыслить быстрее человека, может отразить ракетные удары по авианосцам и авиабазам со скоростью, не оставляющей времени для дипломатии, и способами, которые не до конца понятны ее операторам. Кроме того, системы ИИ можно взломать и обмануть манипулированием данных.

В течение 20-го века мир, в конечном итоге, нашел способ управлять изменением парадигмы в военной технологии. С появлением ядерной бомбы. Глобальной катастрофы удалось избежать благодаря сочетанию трех подходов: сдерживание, контроль над вооружениями и меры безопасности. Многие ищут подобный шаблон для ИИ. К сожалению, у него ограниченное применение - и не только потому, что технология является новой.

Сдерживание основывалось на консенсусе о том, что в случае использования ядерных бомб они будут представлять катастрофические риски для обеих сторон. Но угроза, исходящая от ИИ, менее ясная. Это может вызвать внезапные атаки или спутать их, и число погибших тогда сможет варьироваться от одного до миллионов. Точно так же контроль над вооружениями времен холодной войны основывался на прозрачности, и способности с некоторой уверенностью знать, что замышляет другая сторона. В отличие от ракетных хранилищ, со спутников нельзя следить за программным обеспечением. И в то время как враги могут показать свои боеголовки, не уменьшая их потенциал, демонстрация внешнему миру алгоритма может поставить под угрозу его эффективность. У обеих сторон может быть стимул вводить в заблуждение другую сторону. "Незнание противниками развитых конфигураций ИИ станут стратегическим преимуществом", - предполагает Генри Киссинджер, возглавлявший усилия США по контролю над вооружениями в период холодной войны с Советским Союзом.

Это оставляет последний контроль - безопасность. Ядерные арсеналы включают сложные системы, в которых велик риск аварий. Протоколы были разработаны для гарантирования, что оружие не может быть использовано без разрешения. Это, например, отказоустойчивые механизмы, которые делают так, что бомбы не взрываются, если их сбросили преждевременно. Требуется больше размышлений о том, как аналогичные меры могут применяться к системам искусственного интеллекта, особенно к тем, на которые возложено управление военными силами на хаотичном и туманном поле битвы.

Принципы, которые должны воплощать эти правила, просты - ИИ должен будет отражать человеческие ценности, такие как справедливость, и быть устойчивым к попыткам обмануть его. Очень важно, чтобы ИИ-оружие было настолько объяснимым, насколько это возможно, чтобы люди могли понять, как оно принимает решения. Многие западные компании, разрабатывающие ИИ в коммерческих целях, в том числе автомобили с автоматическим управлением и программное обеспечение для распознавания лиц, уже тестируют свой ИИ-системы, чтобы гарантировать, что у них есть некоторые из этих характеристик. Ставки выше в военной сфере, где обман - обычное дело, а темп - бешеный. В условиях конфронтации между двумя сверхдержавами в мире возникает соблазн сократить временные преимущества. До сих пор нет никаких признаков того, что опасность воспринимается достаточно серьезно, хотя центр ИИ в Пентагоне нанимает специалиста по этике. Оставив войну компьютерам, мир станет более опасным.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме