Більше тисячі експертів, серед яких засновник SpaceX та Tesla Ілон Маск, один з засновників Apple Стів Возняк, ізраїльський історик та футуролог Юваль Ной Харарі та інші, підписали листа, в якому закликали поставити на паузу розробку просунутого штучного інтелекту. Як випливає з листа, вони вважають, що розвиток штучного інтелекту становить небезпеку для розвитку суспільства та людства загалом.
Зокрема, розвиток ШІ може спричинити глибокі зміни в історії життя на Землі, тому його варто розвивати та керувати ним з особливою обережністю.
«На жаль, такого рівня планування та управління не існує, навіть незважаючи на те, що в останні місяці лабораторії штучного інтелекту застрягли в неконтрольованій гонці з розробки та розгортання все більш потужних цифрових умів, які ніхто, навіть їхні творці, не може зрозуміти, спрогнозувати або надійно контролювати», - йдеться у листі.
Експерти також зазначили, що сучасні системи штучного інтелекту вже можуть конкурувати з людьми у загальних завданнях, що порушує низку питань. Наприклад, чи повинні ми дозволити машинам поширювати дезінформацію, чи повинні прагнути повної автоматизації робочих місць, а також розвивати нелюдський інтелект, який у майбутньому може перевершити, перехитрити та замінити людину. За словами експертів, розвивати потужні системи штучного інтелекту можна лише в тому випадку, якщо ми будемо впевнені в тому, що їхній вплив буде позитивним, а всі ризики, які можуть бути принесені, - будуть усуватися.
«Тому ми закликаємо всі лабораторії ШІ негайно призупинити як мінімум на шість місяців навчання систем ШІ більш потужних, ніж GPT-4. Ця пауза повинна бути загальнодоступною та такою, що піддається перевірці, і в ній повинні брати участь усі ключові учасники. Якщо таку паузу не можна запровадити швидко, уряди мають втрутитися та ввести мораторій», - йдеться у листі.
Ця пауза необхідна лабораторіям та незалежним експертам у галузі ШІ для розробки та впровадження протоколів безпеки, дотримання яких контролюватиметься зовнішніми експертами. Ці протоколи повинні гарантувати, що розробка ШІ безпечна.
Експерти вважають, що пауза не заважатиме розвитку ШІ, а дозволить відійти від «бездумних перегонів» до все більш масштабних і непередбачуваних моделей.
Раніше дослідження Goldman Sachs показало, що прорив у розвитку ШІ може призвести до автоматизації чверті роботи, що виконується у США та Єврозоні. Якщо технологія виправдає очікування, вона може призвести до "значного руйнування" ринку праці, автоматизувавши роботу 300 мільйонів працівників, які працюють повний робочий день у великих економіках.