UA / RU
Поддержать ZN.ua

Ведущие ученые мира призвали запретить использование искусственного интеллекта в военных целях

Исследователи читают, что автономное оружие может само по себе стать причиной возникновения войн.

Стивен Хокинг, Элон Маск, Стив Возняк, Ноам Хомски и ведущие исследователи искусственного интеллекта написали открыто письмо к 3, в котором выражают свои опасения по поводу "гонки по созданию военного искусственного интеллекта" и тех последствий, которые она может принести для всего человечества. Также они подчеркнули необходимость рассмотрения "вопроса запрета разработки автоматизированного вооружения".

Ученые опасаются, что оружие, которое способно автоматически "выбирать и атаковать цели без человеческого вмешательства", может стать "автоматом Калашникова завтрашнего дня" и стать источником новых войн, терроризма и глобальной неустойчивости.

"Технология искусственного интеллекта достигла точки, после которой возможность развертывания и применения подобных систем становится вопросом уже не десятилетий, а всего нескольких лет", - говорится в письме.

"Появление автономного оружия на черном рынке, в руках террористов и диктаторов, желающих подчинить себе волю народов, безумных палачей, которые будут выступать за этнические чистки, - все это в таком случае станет лишь вопросом времени. Автономное вооружение может идеально подходить для проведения убийств по политическим мотивам, использоваться в операциях по дестабилизации стран, подчинения населения и выборочного уничтожения конкретных этнических групп", - считают исследователи.

По их словам, несмотря на мнение о том, что технология автономного оружия может снизить человеческие потери при ведении боевых действий, такое мнение является ошибочным, так как данная технология сама по себе может стать причиной новых войн.

"В отличие от атомного оружия, автономное вооружение не потребует использования дорогого сырья и сверхтонкой ручной сборки, следовательно, такое оружие станет массовым для любой крупной военной державы мира", - пишут ученые.

Ранее представитель Оксфордского университета Ник Бостром подчеркнул возможную угрозу человечеству со стороны искусственного интеллекта. "Существуют причины полагать, что нерегулируемые и бесконтрольные разработки могут привести к опасным последствиям, как из-за безответственных правительств, так и ввиду беспрецедентных возможностей таких систем", - сказал Бостром.