Засновники OpenAI закликали до регулювання, щоб ШІ не захопив людство

Поділитися
Засновники OpenAI закликали до регулювання, щоб ШІ не захопив людство Експерти закликали до регулювання ШІ © depositphotos / Wavebreakmedia
Це допоможе захиститися від ризиків, пов'язаних із «надрозумним» ШІ.

Засновники компанії OpenAI, яка розробила чат-бот ChatGPT, заявили про необхідність регулювання «надрозумного» штучного інтелекту. Вони вважають, що необхідно створити еквівалент Міжнародного агентства з атомної енергії, щоб захистити людство від ризику випадкового створення чогось, що здатне його знищити, повідомляє The Guardian.

У короткому дописі співзасновники компанії Грег Брокман та Ілля Суцкевер, а також генеральний директор Сем Альтман закликають до створення міжнародного регулятора, який «інспектуватиме системи, вимагатиме аудиту, тестуватиме на відповідність стандартам безпеки, [і] встановить обмеження на ступені розгортання та рівні безпеки», щоб зменшити «екзистенційний ризик», який можуть представляти такі системи.

Експерти припускають, що протягом 10 років штучний інтелект може досягти рівня, який дозволить йому виконувати роботу, яку виконують зараз великі корпорації. За їхніми словами, це має як переваги, так і недоліки. Створення надінтелекту може допомогти нам досягти блискучого майбутнього, але потрібне його регулювання, яке дозволить захистити нас від можливих ризиків.

У короткостроковій перспективі Брокман, Суцкевер та Альтман закликають до «якогось ступеня координації» між компаніями, які працюють над передовими дослідженнями в галузі ШІ. Це дозволить забезпечити плавну інтеграцію розробки все більш потужних моделей із суспільством, приділяючи при цьому пріоритетну увагу безпеці. Ця координація може здійснюватись, наприклад, через проєкт під керівництвом уряду або через колективний договір, що обмежує зростання можливостей ШІ.

Занепокоєння, пов'язані з можливим створенням суперінтелекту, вчені висловлюють упродовж десятиліть. З розвитком технології ШІ ці ризики стали більш конкретними. Американський Центр безпеки штучного інтелекту (CAIS), який працює над тим, щоб «зменшити суспільні ризики від штучного інтелекту», описує вісім категорій «катастрофічних» та «екзистенційних» ризиків, які можуть становити розвиток ШІ.

Деякі люди переймаються тим, що ШІ може повністю знищити людство, але CAIS розглядає інші сценарії. Так, світ, у якому системам ШІ добровільно передається все більше праці, може призвести до того, що людство «втратить здатність до самоврядування та стане повністю залежним від машин». Невелика група людей, які контролюють машини, можуть зробити ШІ «централізуючою силою».

Засновники OpenAI кажуть, що ці ризики означають, що «люди в усьому світі мають демократичним шляхом визначати межі та значення за умовчанням для ШІ систем». Водночас вони визнають, що ми поки що не знаємо, як можна створити такий механізм.

Раніше OpenAI назвала професії, які можуть зникнути через розвиток штучного інтелекту. У приблизно 80% американських працівників щонайменше 10% їхніх робочих завдань можуть бути виконані ресурсом GPT або іншим штучним інтелектом. Близько 19% працівників у найближчому майбутньому можуть втратити щонайменше 50% своїх завдань.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі