Ведущие ученые мира призвали запретить использование искусственного интеллекта в военных целях

28 июля, 2015, 08:02 Распечатать

Исследователи читают, что автономное оружие может само по себе стать причиной возникновения войн. 

Применении полностью автономного оружия является лишь вопросом времени, считают ученые

 

Стивен Хокинг, Элон Маск, Стив Возняк, Ноам Хомски и ведущие исследователи искусственного интеллекта написали открыто письмо к ООН, в котором выражают свои опасения по поводу "гонки по созданию военного искусственного интеллекта" и тех последствий, которые она может принести для всего человечества. Также они подчеркнули необходимость рассмотрения "вопроса запрета разработки автоматизированного вооружения".

Ученые опасаются, что оружие, которое способно автоматически "выбирать и атаковать цели без человеческого вмешательства", может стать "автоматом Калашникова завтрашнего дня" и стать источником новых войн, терроризма и глобальной неустойчивости.

"Технология искусственного интеллекта достигла точки, после которой возможность развертывания и применения подобных систем становится вопросом уже не десятилетий, а всего нескольких лет", - говорится в письме.

"Появление автономного оружия на черном рынке, в руках террористов и диктаторов, желающих подчинить себе волю народов, безумных палачей, которые будут выступать за этнические чистки, — все это в таком случае станет лишь вопросом времени. Автономное вооружение может идеально подходить для проведения убийств по политическим мотивам, использоваться в операциях по дестабилизации стран, подчинения населения и выборочного уничтожения конкретных этнических групп", - считают исследователи.

По их словам, несмотря на мнение о том, что технология автономного оружия может снизить человеческие потери при ведении боевых действий, такое мнение является ошибочным, так как данная технология сама по себе может стать причиной новых войн.

"В отличие от атомного оружия, автономное вооружение не потребует использования дорогого сырья и сверхтонкой ручной сборки, следовательно, такое оружие станет массовым для любой крупной военной державы мира", - пишут ученые.

Читайте также: Ученые использовали Daily Mail и CNN для обучения искусственного интеллекта

Ранее представитель Оксфордского университета Ник Бостром подчеркнул возможную угрозу человечеству со стороны искусственного интеллекта. "Существуют причины полагать, что нерегулируемые и бесконтрольные разработки могут привести к опасным последствиям, как из-за безответственных правительств, так и ввиду беспрецедентных возможностей таких систем", - сказал Бостром.

По материалам: Hi-news.ru /
Оставайтесь в курсе последних событий! Подписывайтесь на наш канал в Telegram
Заметили ошибку?
Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter
Добавить комментарий
Осталось символов: 2000
Авторизуйтесь, чтобы иметь возможность комментировать материалы
Всего комментариев: 0
Выпуск №38, 13 октября-19 октября Архив номеров | Содержание номера < >