UA / RU
Підтримати ZN.ua

Не всі системи ШІ мають бути однаково загальнодоступними – правознавець

За його словами, чим вмілішим стає ШІ, тим ближчий ризик катастрофи.

Правознавець виступив проти безконтрольного поширення ШІ

Правознавець виступив проти безконтрольного поширення ШІ

Не всі моделі штучного інтелекту (ШІ) повинні бути у вільному доступі. Чим здатнішим стає ШІ, тим ближче людство підходить до катастрофи. Таку думку висловив Лоуренс Лессіг — професор права та лідерства в юридичній школі Гарвардського університету та співзасновник Creative Commons у колонці для The Economist.

Він зазначає, що поява програмного забезпечення (ПЗ) з відкритим кодом, що було безкоштовним, стимулювало технічні інновації та поширення технічних навичок. Свобода користуватися програмним забезпеченням дозволила вивчитися безлічі молодих програмістів і лягла в основу бізнесів, які живлять цифрову економіку. Відповідно, здається природним безперешкодне поширення моделей ШІ.

Читайте також: Майбутня освіта: як штучний інтелект змінює нашу реальність

Але Лессіг підкреслює, що між звичайним програмним забезпеченням та системами ШІ існує значна різниця. На його думку, ШІ – скоріше категорія, ніж технологія. Як і категорія «зброя», вона варіюється від відносно нешкідливої до потенційно катастрофічної. Рівень доступності до рогатки та «Стінгера» - різний. Так само має бути і з ШІ.

Він додає, що не є очевидним також, як у цьому випадку повинні застосовуватися норми вільного програмного забезпечення. Відкрите програмне забезпечення — це програмне забезпечення, вихідний код якого випускається за ліцензіями, які дозволяють іншим копіювати та змінювати код. Саме доступ до цього коду розповсюджує знання. Але моделі ШІ складаються як мінімум із чотирьох типів цифрових компонентів, тільки три з яких насправді є програмним забезпеченням. Четвертий – ваги моделі – є одночасно найпотужнішим і найнезрозумілішим.

Ваги моделі — це змінні чи числові значення, які використовуються для переведення вхідних даних у вихідні. Вони інкапсулюють усе, чого модель навчилася під час навчання. Наприклад, якщо навчання коштувало мільярд доларів, то ваги моделі відображають цю вартість. Якщо навчання коштувало тисячу доларів, то ці ваги будуть менш цінними.

Незрозуміло, який із цих компонентів має бути доступний усім, щоб відповідати критеріям програмного забезпечення з відкритим кодом.

Лессіг вважає, що всі чотири компоненти мають бути доступними, коли справа стосується моделей ШІ з обмеженими можливостями. Але ця логіка не повинна застосовуватися до високоефективних моделей, особливо коли йдеться про їхні ваги. Чому б не навчили ваги моделей, ця перевага має бути зіставлена з величезним ризиком неправильного використання, який представляють собою високоефективні моделі. В якийсь момент цей ризик буде занадто високим.

Лессіг зазначає, що Марк Цукерберг – засновник Facebook і творець Llama, найпотужнішого на сьогоднішній день релізу з відкритими вагами, вважає, що відкриті релізи «значно безпечніші, оскільки системи прозоріші і можуть бути ретельно вивчені». Правознавець зазначає, що невідомо, коли це станеться. І якщо проблема буде виявлена вже після релізу, немає полегшення в тому, що її виявлять відразу всі користувачі.

Він також звернув увагу на запевнення Цукерберга, що ваги моделей захищені від неправомірного використання. Але проведені дослідження свідчать, що цей захист легко зняти. У Llama 2 були обмеження, щоб користувачі не могли розгорнути його з неналежною або небезпечною метою. Але у 2023 році і менш ніж за 200 доларів команда з Palisade Research змогла відключити їх та створити необмежену версію Llama 2.

І моделі з відкритими вагами можуть стати все більш небезпечними в міру того, як їх базові моделі стають все більш потужними, а методи зняття обмежень – все складнішими.

За словами Лессіга, справа не лише в тому, що релізи з відкритими вагами можуть бути перехоплені. Основний ризик пов'язаний із тим, що після релізу їх уже не можна відкликати. І ризики залежать від регулюючих можливостей інфраструктури, в якій працює ШІ.

Приватні компанії, які конкурують одна з одною, недостатньо стимульовані для того, щоб уникнути ризику катастрофи. Не допоможе і проста заборона створення ШІ з відкритим кодом. Необхідно створити середовище, в якому можна буде розробляти безпечний ШІ, та регулююче судження, щоб визначати, коли суспільний ризик стає надто високим.

У травні Рада Європи погодила Конвенцію про штучний інтелект, що стала першим прикладом міжнародно-правого документа, який має обов'язковий характер. Кандидат юридичних наук Сергій Козьяков пояснив, чому це важливо.