UA / RU
Підтримати ZN.ua

Провідні вчені світу закликали заборонити використання штучного інтелекту у військових цілях

Дослідники читають, що автономна зброя може сама по собі стати причиною виникнення воєн.

Стівен Хокінг, Елон Маск, Стів Возняк, Ноам Хомські та провідні дослідники штучного інтелекту відкрито написали лист до 3, в якому висловлюють свої побоювання з приводу "гонки щодо створення військового штучного інтелекту" і тих наслідків, які вона може принести для всього людства. Також вони підкреслили необхідність розгляду "питання заборони розробки автоматизованого озброєння".

Вчені побоюються, що зброя, яка здатна автоматично обирати і атакувати цілі без людського втручання", може стати "автоматом Калашникова завтрашнього дня" і стати джерелом нових воєн, тероризму та глобальної нестабільності.

"Технологія штучного інтелекту досягла точки, після якої можливість розгортання і застосування подібних систем стає питанням вже не десятиліть, а всього кількох років", - йдеться в листі.

"Поява автономного зброї на чорному ринку, в руках терористів і диктаторів, охочих підкорити собі волю народів, божевільних катів, які будуть виступати за етнічні чистки, - все це в такому разі стане лише питанням часу. Автономне озброєння може ідеально підходити для проведення вбивств з політичних мотивів, використовуватися в операціях по дестабілізації країн, підпорядкування населення і вибіркового знищення конкретних етнічних груп", - вважають дослідники.

За їх словами, незважаючи на думку про те, що технологія автономного зброї може знизити людські втрати при веденні бойових дій, така думка є помилковим, так як дана технологія сама по собі може стати причиною нових воєн.

"На відміну від атомної зброї, автономне озброєння не потребує використання дорогої сировини і надтонкої ручної збірки, отже, така зброя стане масовим для будь-якої великої військової держави світу", - пишуть вчені.

Раніше представник Оксфордського університету Нік Бостром підкреслив можливу загрозу людству з боку штучного інтелекту. "Існують причини вважати, що нерегульовані і безконтрольні розробки можуть призвести до небезпечних наслідків, як через безвідповідальні уряди, так і через безпрецедентних можливостей таких систем", - сказав Бостром.