"Хрещений батько" штучного інтелекту попереджає про небезпеку технології

Поділитися
Джеффрі Хінтон залишив посаду в Google, щоб вільно висловлюватись на тему ШІ.

Джеффрі Хінтон, якого називають «хрещеним батьком штучного інтелекту», підтвердив у понеділок, що минулого тижня залишив свою посаду в Google, аби мати змогу говорити про «небезпеку» технології, яку він розробляв, пише CNN.

Робота Хінтона над нейронними мережами сформувала системи штучного інтелекту, які працюють у багатьох сучасних продуктах. Десять років він працював у Google над розробкою штучного інтелекту технічного гіганта, однак відтоді він занепокоєний стосовно цієї технології та його ролі в її розвитку.

«Я втішаю себе звичайним виправданням: якби я цього не зробив, зробив би хтось інший», — сказав Хінтон New York Times, яка першою повідомила про його рішення.

У понеділок у Твіттері Хінтон повідомив, що залишив Google, щоб вільно говорити про ризики ШІ, а не через бажання критикувати конкретно Google.

«Я пішов, щоб говорити про небезпеку ШІ, не замислюючись про те, як це вплине на Google. Google діяв дуже відповідально», — написав він.

Джефф Дін, головний науковий співробітник Google, заявив, що Хінтон «здійснив основоположний прорив у ШІ» та висловив вдячність за «десятиріччя внеску Хінтона в Google».

«Ми як і раніше віддані відповідальному підходу до штучного інтелекту. Ми постійно вчимося розуміти нові ризики, водночас сміливо впроваджуючи інновації», — повідомив Дін у наданій CNN заяві. 

Рішення Хінтона піти з компанії та висловлювати власну точку зору про технологію сталося в той момент, коли дедалі більше законодавців, правозахисних груп і технічних інсайдерів висловили занепокоєння щодо потенціалу нової групи чат-ботів на основі ШІ для поширення дезінформації та витіснення робочих місць.

Хвиля уваги навколо ChatGPT наприкінці минулого року допомогла відновити гонку озброєнь серед технологічних компаній у розробці та застосуванні подібних інструментів ШІ у своїх продуктах. OpenAI, Microsoft і Google знаходяться в авангарді цієї тенденції, однак IBM, Amazon, Baidu і Tencent також працюють над подібними технологіями.

У березні кілька видатних діячів у галузі технологій підписали листа із закликом до лабораторій штучного інтелекту припинити навчання найпотужніших систем штучного інтелекту принаймні на шість місяців, посилаючись на «значні ризики для суспільства та людства».

Лист, опублікований Future of Life Institute, некомерційною організацією, яку підтримує Ілон Маск, надійшов через два тижні після того, як OpenAI анонсувала GPT-4, ще потужнішу версію технології, яка підтримує ChatGPT. 

Під час перших тестів і презентацій компанії GPT-4 використовувався для складання позовів, здачі стандартизованих іспитів і створення робочого веб-сайту з намальованого вручну ескізу.

В інтерв’ю Times Хінтон повторив занепокоєння щодо потенціалу ШІ знищити робочі місця та створити світ, де багато хто «більше не зможе знати, що є правдою». Він також вказав на приголомшливі темпи просування, які значно перевищують очікування його та інших.

«Кілька людей повірили у те, що ця штука насправді може стати розумнішою за людей. Але більшість людей, в тому числі я, вважали, що це далека перспектива.  Я думав, що це станеться через 30-50 років, або навіть більше. Очевидно, я більше так не думаю», — заявив він.

Ще до того, як залишити з Google, Хінтон публічно говорив про потенціал штучного інтелекту приносити як шкоду, так і користь.

«Я вважаю, що швидкий прогрес штучного інтелекту змінить суспільство у спосіб, який ми не зовсім розуміємо, і не всі наслідки будуть позитивними», — сказав Хінтон під час церемоніального звернення 2021 року в Індійському технологічному інституті Бомбея в Мумбаї.

Він зазначав, що ШІ покращить охорону здоров’я, але водночас також створить можливості для автономної летальної зброї. 

«Я вважаю цю перспективу набагато більш терміновою і набагато жахливішою, ніж перспективу захоплення роботами, яка, на мою думку, дуже далека», — пояснив Хінтон.

Хінтон не перший співробітник Google, який піднімає червоний прапорець щодо ШІ. У липні компанія звільнила інженера, який стверджував, що неопублікована система штучного інтелекту стала розумною, заявивши, що він порушив правила зайнятості та безпеки даних. Багато хто в спільноті штучного інтелекту рішуче заперечував твердження інженера.

Днями міністри цифрових технологій країн G7 узгодили п'ять принципів розвитку гнучких форм управління новими технологіями, такими як штучний інтелект, на тлі швидкого поширення використання чат-ботів на основі ШІ по всьому світу.

Компанії, що створюють генеративні інструменти штучного інтелекту, такі як ChatGPT, повинні будуть також заявляти, чи були використані будь-які захищені авторським правом матеріали для розробки цих систем.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі