ЄС хоче розробити етику для штучного інтелекту - EUObserver

Поділитися
ЄС хоче розробити етику для штучного інтелекту - EUObserver Єврокомісія створить спеціальний "Європейський альянс зі штучного інтелекту". © Flickr/martin louis
У Британії вважають, що США не впораються з цим завданням.

Президент Франції Еммануель Макрон не стримував слова, коли говорив з технологічним журналом Wired про наближення загроз від штучного інтелекту. Технологічна революція, яку наближає розумна машина, за словами французького лідера, "насправді політична революція".

"В США її просуванням повністю займається приватний сектор, великі корпорації, а також деякі стартапи, які ведуть з ними справи. Всі вибори, які вони зроблять, будуть приватними виборами, які стосуються колективних цінностей", - цитує слова Макрона EUObserver.

"З іншого боку, китайські гравці збирають чимало даних за сприяння уряду, чиї принципи і цінності не такі, як наші", - додав французький перзидент, підкресливши, що той, хто хоче визначити впливу штучного інтелекту, повинен брати участь в процесі ще на етапі розробки і встановлення правил.

"Якщо ми хочемо захистити наш підхід до приватності, наше колективне бажання особистої свободи проти технологічного прогресу, цілісності людини і людського ДНК, якщо ми хочемо мати власний суспільний вибір, вибір цивілізації, потрібно стати активною частиною революції штучного інтелекту", - наголосив Макрон, додавши, що він хотів би "визначити дискусію на глобальному рівні".

Схожий сигнал надійшов з Брюсселя сьогодні, 25 квітня, коли Єврокомісія представила стратегію щодо штучного інтелекту. В ній йшлося зокрема про те, що Євросоюз повинен очолити процес визначення етики нової технології. Поки немає універсального визначення того, що таке "штучний інтелект". В загальному під цим терміном мають на увазі системи, які можуть робити автономні чи напівавтономні рішення, опираючись на аналіз середовища чи великих масивів даних. Автономні автомобілі - очевидний приклад. Але, деякі додатки, такі як, приміром, сервіси, які пропонують фільми опираючись на попередні запити користувачів, чи сайти перекладів, тепер стали повсякденністю, а раніше вважалися "штучним інтелектом".

Стратегія Єврокомісії ставить перед собою три головні цілі. По-перше, це посилення технологічних і виробничих можливостей ЄС із застосуванням штучного інтелекту в різних сферах економіки. По-друге, забезпечити "належні етичні і юридичні рамки", опираючись на цінності ЄС. По-трете, підготуватися до соціоекономічних змін. В документі йдется про те, що штучний інтелект повинен поважати цінності і фундаментальні права в ЄС, а також етичні принципи, такі як відповідальність і прозорість.

"ЄС може зробити унікальний внесок у глобальні дебати про штучний інтелект, опираючись на свої цінності і фундаментальні права", - йдеться в стратегії Єврокомісії.

В документі зауважується, що Єврокомісія створить спеціальний "Європейський альянс зі штучного інтелекту", завданням якого буде написати етичні норми штучного інтелекту до кінця 2018 року. Це значно стисліші терміни, ніж ті, що були вказані у попередніх проектах стратегії.

Палата лордів парламенту Великої Британії теж пропонувала розробити етичний код поведінки для штучного інтелекту.

"Громадськість заслуговує на гарантії, що штучний інтелект буде використаний в її інтересах і не буде застосований для експлуатації чи маніпуляції нею. Багато організацій і компаній також прагнуть підтвердити ці надії і зменшити занепокоєння", - йдеться в документі верхньої палати британского парламенту.

Лорди також рекомендували уряду королівства провести глобальний саміт зі штучного інтелекту в Лондоні до кінця 2019 року, щоб Британія змогла очолити процес формування етики нової технології. США, на їхню думку, навряд чи візьмуть на себе цю роль, тому що адміністрація Дональда Трампа "не зацікавлена в штучному інтелекті". Крмі того, домінування могутніх американських технологічних компаній унеможливлює "дійсно демократичні дебати" в Америці.

Раніше видання The Economist писало, що штучному інтелекту доведеться навчитися пояснювати свої "думки" і дії. Людство більше не боїться, що машина вийде з-під контролю і почне робити щось, про що її не просили. Страшніше те, що вона виконає потрібну роботу, але у якийсь непередбачуваний і шкідливий спосіб, який вона визначить як раціональний, але який дорого коштуватиме людям. Адже розробники досі не завжди точно розуміють, як саме відбувається процес машинного навчання.

Поділитися
Підготував/ла Лесь Димань
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі