Штучний інтелект досяг критичної точки в своєму розвитку – вчені

Поділитися
Штучний інтелект досяг критичної точки в своєму розвитку – вчені Штучний інтелект безпосередньо торкається життів людей © vogazeta.ru
Експерти вважають, що необхідно ретельно оцінити ризики, пов'язані з розвитком ШІ.

Міжнародна група вчених на чолі з дослідником з університету Брауна заявила про те, що штучний інтелект досяг критичної точки в своєму розвитку. Істотний прогрес в аналізі мови, комп'ютерному зорі і розпізнаванні образів свідчить про те, що ШІ торкається життів людей на побутовому рівні. А це веде до того, що необхідно осмислити і мінімізувати ризики, пов'язані з системами, керованими ШІ, йдеться на сайті університету.

Вчені опублікували свої висновки в звіті, в підготовці якого взяли участь фахівці в області комп'ютерних наук, публічної політики, психології, соціології та інших дисциплін.

«За п'ять років ШІ зробив стрибок від чогось, що відбувається в основному в лабораторії або інших установах з високим ступенем контролю до чогось, що вийшло в суспільство і стосується життів людей. Це дійсно захоплююче, оскільки ця технологія робить дивовижні речі, про які ми могли тільки мріяти п'ять або 10 років тому. Але в той же час галузь починає розуміти вплив цієї технології на суспільство, і я думаю, що наступний рубіж - це роздуми про те, як ми можемо отримати вигоду від ШІ при мінімізації ризиків», - заявив Майкл Літтман, який очолював панель вчених.

Так, в області обробки природної мови системи ШІ можуть не тільки розпізнавати слова, а й розуміти, як вони використовуються. Це поліпшило пошук в інтернеті, використання інтелектуальних текстових додатків, чат-ботів і багато іншого. Деякі з цих систем можуть створювати оригінальні тексти, які складно відрізнити від текстів, створених людиною.

Крім того, системи ШІ тепер здатні діагностувати рак та інші хвороби з точністю, яка не поступається підготовленим патологам. Використання ШІ дозволило по-іншому поглянути на геном людини і прискорило відкриття нових фармацевтичних препаратів. Незважаючи на те, що безпілотні автомобілі поки не набули широкого поширення, системи допомоги водієві під управлінням ШІ є стандартним обладнанням більшості машин.

Літтман підкреслив, що деякі досягнення в сфері розвитку ШІ можуть бути не помічені сторонніми спостерігачами, але вони ілюструють значний прогрес в цій сфері. Одним з яскравих прикладів цього є використання фонових зображень під час відеоконференцій, які широко використовуються під час пандемії коронавірусу.

Панель вчених не розглядає антиутопічних ризиків розвитку ШІ, при яких надрозумні машини захоплять світ. За їхніми словами, ризики розвитку технології набагато більш тонкі, але не менш небезпечні.

Одна з таких небезпек - використання ШІ зі злим умислом, наприклад, створення діпфейків для поширення дезінформації або нанесення шкоди репутації людей. Або ж створення ботів, які маніпулюють громадською думкою.

Інші небезпеки є наслідком «аури нейтральності та неупередженості» при прийнятті рішень ШІ. Такі рішення в суспільній свідомості сприймаються як об'єктивні, навіть якщо вони є наслідком дискримінації.

Серед інших небезпек, пов'язаних з розвитком ШІ, вчені називають «техно-панацею». ШІ може сприйматися як панацея від багатьох проблем, хоча він є лише механізмом їхнього вирішення. У міру розвитку технології все частіше виникає спокуса використовувати ШІ для вирішення тих чи інших проблем, але при вирішенні простих питань можуть виникати нові, набагато більш серйозні, проблеми. Так, системи, які автоматизують доступ до соціальних послуг, можуть почати дискримінувати мігрантів або людей, які опинилися в скрутному становищі.

Підписуйтесь на наш Telegram-канал з новинами технологій і культури.

На початку цього року вчені з Австралії провели три експерименти зі штучним інтелектом і з'ясували, що він може навчитися маніпулювати людьми. В рамках цих експериментів нейромережа грала в ігри проти людей.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі