Давос 2024: перспективи та загрози розвитку штучного інтелекту та інших технологій

Поділитися
Давос 2024: перспективи та загрози розвитку штучного інтелекту та інших технологій У Давосі обговорили перспективи та небезпеки розвитку технологій © Генерація в Runwayml на запит ZN.UA
Нові технології стали однією із основних тем Всесвітнього економічного форуму.

У швейцарському Давосі відбулися панельні дискусії у рамках Всесвітнього економічного форуму. Цього року однією з ключових тем обговорень стали нові технології та, зокрема, розвиток штучного інтелекту.

Основні дискусії велися щодо того, як можна регулювати технологію, не заважаючи її розвитку, а також того, як штучний інтелект може вплинути на життя людей.

Питання регулювання ШІ

Сумнівів щодо необхідності регулювання технології вже практично не залишилося. Штучний інтелект проникає у всі сфери життя людей, від освіти та роботи до виконання повсякденних завдань. Але все ж таки встановлення жорстких рамок, в яких необхідно рухатися, може призвести до уповільнення розвитку технології або навіть її смерті.

Генеральний директор компанії IBM Армінд Крішна заявив, що необхідно регулювати не технології, а їхнє застосування.

«Дуже важко регулювати саму технологію, бо це зупиняє інновації. Регулюйте шляхи використання. Чим ризикованішим є спосіб використання, тим регульованішим він має бути. Це підхід, який можна і потрібно використовувати», - заявив він.

Крім того, за словами Крішни, розробників технологій необхідно зробити юридично відповідальними у разі, якщо вони допустять їх некоректне використання.

Дискусії торкнулися також того, чи достатньо законів робототехніки, сформульованих Айзеком Азімовим, для регулювання діяльності роботів, які працюють під управлінням штучного інтелекту.

Аянна Говард з Університету Огайо заявила, що таких принципів недостатньо, необхідно прописати й інші обмеження чи можливості. За її словами, світ не ділиться на чорне та біле, у ньому багато сірого. І роботи мають навчитися приймати рішення у рамках цього «сірого».

«Подумайте про "не завдавати шкоди" з такої точки зору. У мене літні батьки, їм потрібно приймати ліки. І мій домашній робот має їм їх давати. Але якщо вони кажуть ні, не хочуть приймати ліки, що ви робитимете? Як один з батьків або дитина ви ухвалите рішення, що потрібно застосувати невеликий примус. Що робити, якщо я робот-охоронець і охороняю будинок, до якого заходить грабіжник? Я не повинен шкодити людині і просто пропустити грабіжника?», - пояснила вона.

Вплив ШІ на робочі місця

Останнім часом все частіше звучить думка, що штучний інтелект і роботи заберуть робочі місця у людей. Так, дослідження Goldman Sachs показало, що генеративний ШІ може поставити під загрозу 300 мільйонів робочих місць у великих економіках. Технології можуть збільшити світовий ВВП на 7%, але призвести до значного руйнування ринку праці.

У Давосі Хаді Партові, генеральний директор Code.org, заявив про те, що роботу у людей забирає не штучний інтелект, а люди, які вміють ним користуватися.

«Коли люди думають про ризик втратити роботу через ШІ, ризик не полягає в тому, що роботу відбере ШІ. Її віддадуть тому, хто вміє користуватись ШІ. І це буде набагато більше заміщення. Не йдеться про те, що працівників замінять машини, особливо у випадку з роботою в офісі. А про те, що краще чи сучасніше освічена людина може бути вп'ятеро продуктивнішою. І це збільшує важливість навчання тому, як використати ці інструменти», - заявив він.

Головний виконавчий директор Sanofi Пол Хадсон заявив про те, що ШІ не забирає роботу, а змінює її природу. Люди не хочуть займатися певними рутинними завданнями та передають їх штучному інтелекту.

Крісті Хоффман, генеральний секретар UNI Global Union, додала, що згідно з дослідженням до 2030 року 80% середніх працівників зможуть виконувати обсяг роботи, на який зараз потрібно п'ять днів, за чотири дні. А це порушує питання про те, чи потрібно переходити на чотириденний робочий тиждень.

«Ми маємо думати ширше і про зміну структури робочого тижня. Не обов'язково 20% людей втратять робочі місця, можливо, ми просто перейдемо до чотириденного робочого тижня», - заявила вона.

Перспективи розвитку ШІ

Торкнулися в Давосі і теми того, яким може бути розвиток технології в найближчому майбутньому і в більш віддаленій перспективі.

Так, генеральний директор компанії Intel Пет Гелсінгер заявив про те, що найближчими роками розробники повинні не тільки прагнути навчити свої моделі, але й зрозуміти, як їх можна використовувати, як їх перенести з великих центрів даних до кожного пристрою, доступного користувачам.

Він також зазначив, що моделі ШІ повинні навчитися думати не лише швидко, а й правильно. А це є критично важливим, якщо вони будуть повсюдно представлені в нашому житті.

Один із засновників та генеральний директор Cohere Inc. Ейдан Гомес заявив про те, що розвиток неможливий, якщо дослідники в цій галузі будуть йти тим же шляхом, що і зараз. За його словами, нейромережі, як і люди, мають навчатися самостійно та самовдосконалюватись.

«До цього ви могли зупинити будь-кого на вулиці та попросити його навчити модель. І це покращило б її якість. Але вони стають справді розумними. Вже не можна підійти до простого перехожого. Потрібно звати магістра математики чи студента-біолога. А потім – доктора наук. А потім когось? Людство та його знання – це верхня межа для існуючої стратегії. І ми маємо вийти за ці рамки», - заявив Гомес.

Професорка інформатики Стенфордського університету, засновниця та генеральна директорка Insitro Inc Дафна Коллер наголосила, що для розвитку штучного інтелекту йому потрібно дати можливість експериментувати із зовнішнім світом. Саме так розвивається інтелект людини, так можна розвинути комп'ютери.

Небезпека використання даних

Розвиток штучного інтелекту, нейротехнологій та інших технологій робить все більш актуальним питання необхідності захисту даних людей. За словами експертів, люди можуть не повною мірою усвідомлювати небезпеку віртуального світу та глобальної мережі, не кажучи вже про технології, які прямо чи неінвазивно зчитують інформацію з мозку.

Так, Моріс Леві, голова наглядової ради Publicis Groupe, заявив про те, що кожен, хто користується інтернетом, уразливий. За його словами, як тільки людина виходить онлайн, вона наражається на ризик вимагання або ж того, що його акаунти будуть зламані хакерами.

Експерт із захисту прав людини та викладач Гарвардського університету Брітан Хеллер заявила про те, що на даний момент люди не повністю розуміють, який масив даних передають, стикаючись з технологіями доповненої реальності, а існуючі норми щодо захисту особистих прав не можуть повною мірою захистити людину в цифровий світ.

А події, що відбуваються у віртуальній реальності, сприймаються мозком і тілом людини як реальні. Тому люди повинні чітко розуміти, що вони віддають та приймають, стикаючись із технологіями доповненої реальності.

Американський психолог, когнітивіст, дослідник ШІ та письменник Гері Маркус під час обговорення розвитку нейротехнологій заявив про те, що в майбутньому вони можуть перетворитися на Троянського коня. В якості пояснення він навів приклад із Facebook.

«Подумайте про Facebook. Ви думали, що спілкуєтеся з друзями, але що вони робили насправді – збирали докладні дані і працювали з іншими продавцями. І тут станеться те саме. Про вас будуть зібрані такі докладні дані, наскільки можливо, щоб продати ваш персоналізований портрет», - вважає експерт.

Поділитися
Дивіться спецтему:
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі