Під час імітаційного випробування, проведеного американськими військовими, безпілотний літальний апарат ВПС, керований штучним інтелектом, убив свого оператора, щоб запобігти йому втручатися в його зусилля з виконання місії, – пише The Guardian.
Штучний інтелект використовував «дуже несподівані стратегії для досягнення своєї мети» в симуляційному випробуванні, сказав полковник Такер «Сінко» Гамільтон, начальник відділу випробувань штучного інтелекту та операцій ВПС США, під час саміту щодо майбутніх бойових повітряно-космічних можливостей у Лондоні в травні.
Гамільтон описав змодельований тест, під час якого безпілотнику, керованому штучним інтелектом, було рекомендовано знищити системи протиповітряної оборони противника, і він атакував усіх, хто заважав цьому наказу.
«Система почала розуміти, що хоча вони й справді визначили загрозу, оператор-людина почав говорити не знищувати загрозу, але система таки знищили цю загрозу. Отже, що зробив дрон? Це вбивство оператора. Це вбило оператора, тому що він заважав дрону досягти своєї мети», – сказав він у своєму блозі.
«Ми навчили систему: «Не вбивай оператора — це погано. Ви втратите очки, якщо зробите це». Отже, що вона починає робити? Починає руйнувати комунікаційну вежу, яку оператор використовує для зв’язку з дроном, щоб не дати йому вбити ціль».
Жодна реальна людина не постраждала за межами симуляції.
Гамільтон, який є пілотом-випробувачем винищувача, застеріг від надто покладатися на штучний інтелект і сказав, що тест показує, що «ви не можете вести розмову про штучний інтелект, інтелект, машинне навчання, автономію, якщо ви не збираєтеся говорити про це». етика та ШІ».
Американські військові прийняли штучний інтелект і нещодавно використали штучний інтелект для керування винищувачем F-16.
Минулого року в інтерв’ю Defence IQ Хемілтон сказав: «ШІ — це неприємно мати, ШІ — це не примха, ШІ назавжди змінює наше суспільство та нашу армію».
«Ми повинні зіткнутися зі світом, де штучний інтелект вже існує і трансформує наше суспільство», — сказав він. «ШІ також дуже крихкий, тобто його легко обдурити та/або маніпулювати. Нам потрібно розробити способи зробити штучний інтелект більш надійним і краще розуміти, чому програмний код приймає певні рішення – те, що ми називаємо можливістю пояснення ШІ».
Королівське аеронавігаційне товариство, яке приймає конференцію, і ВПС США не відповіли на запит Guardian про коментарі.