ШІ почав створювати власні копії без команди людини: в чому загроза від нової поведінки алгоритмів

ZN.UA Ексклюзив
Поділитися
ШІ почав створювати власні копії без команди людини: в чому загроза від нової поведінки алгоритмів © depositphotos/BiancoBlue
Що потрібно зробити вже зараз, щоб протидіяти загрозам. 

Дослідники виявили явище, яке ще нещодавно вважалося фантастикою: великі мовні моделі, які вбудовані в ШІ-агентів, почали без допомоги людини створювати власні копії під час різкого зростання кількості запитів, розповів завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Національної академії правових наук України  Олексій Костенко у статті "Не фантастика. ШІ вже здатен розмножуватись і впливати на роботу онлайн-сервісів. Чи готові ми до цього?". 

Автор статті пояснює це так: онлайн-сервіс починає працювати на межі можливостей, кількість запитів зростає, а система стає перевантаженою. До цього часу рішення про додаткові потужності приймала команда інженерів. Однак нині в деяких експериментах рішення ухвалює сам штучний інтелект.

Дослідники розповіли, що під час експериментів програми на основі великих мовних моделей LLM, які називають "мертвим розумом", самі починали створювати власні копії. Перед ними ставили мету, щоб вони зберегли якість роботи сервісу.  Частина цих моделей обирала найефективніший спосіб — створити  власну копію. Дослідники не наказували моделі "копіюватися", а лише поставили перед нею завдання та дали доступ до ресурсів, а вона сама обрала інструмент.

Костенко наголошує, що нині мова йде лише про контрольовані експерименти. Однак все частіше ШІ використовують у роботі банківських застосунків, державних порталів, енергетичних систем. 

"Якщо штучний інтелект здатен сам вирішувати, скільки розгорнути власних копій і де, ми отримуємо новий клас ризику. Йдеться не про фантастичного "злого робота", а про некероване самомасштабування — автоматичне розширення системи без чітких обмежень і зрозумілих правил", — вказує експерт.

Автор статті звертає увагу на те, що здатність штучного інтелекту самостійно створювати власні копії без втручання людини, змінює уявлення про контроль у цифровому світі. 

Костенко зазначає, що не потрібно забороняти технології, але необхідно встановити чіткі правила та прозорий контроль над ШІ. Експерт стверджує, що не потрібно надавати ШІ-агенту автоматично отримувати повний контроль над масштабуванням і серверними ресурсами. Автор статті також зазначає, що варто встановити чіткі ліміти, скільки одночасно може існувати копій системи та програма на основі ШІ має пояснити, чому необхідна ще одна копія для роботи сервісу. 

Він також додав, що незалежні експерти мають перевіряти моделі ШІ в стресових умовах, а доступ до результатів цих перевірок має бути відкритим, а не зберігатися лише в компанії-розробника.

Колишній співробітник OpenAI Даніель Кокотайло переглянув  прогнози щодо темпів розвитку ШІ. Він визнав, що прогрес у створенні трансформаційного штучного інтелекту відбувається повільніше, ніж очікувалося раніше. 

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі