Вчені розповіли про нову небезпеку штучного інтелекту

Поділитися
Вчені розповіли про нову небезпеку штучного інтелекту Вчені розповіли про небезпеку розвитку ШІ © depositphotos / Wavebreakmedia
Вона пов'язана з тим, що ШІ навчається на даних, згенерованих нейромережами.

Вчені з Великої Британії та Канади вирішили дослідити, що буде, якщо контент, згенерований штучним інтелектом, почне розповсюджуватись по інтернету, а інші моделі ШІ навчатимуться на ньому, а не на створеному людиною. За словами дослідників, це призведе до появи «незворотних дефектів» у моделях, що отримуються, повідомляє Venture beat.

У ході дослідження вчені розглядали генеративні моделі штучного інтелекту, які можуть створювати тексти на підставі введених слів та зображення на підставі наведених картинок. Вони дійшли висновку, що «навчання з урахуванням даних, створених іншими моделями, призводить до колапсу моделі — дегенеративного процесу, у якому згодом моделі забувають справжній базовий розподіл даних…». Вони додають, що це неминуче навіть у випадках із «майже ідеальними умовами для довгострокового навчання».

Вчені відзначають, що згодом помилки накопичуються, через що моделі ШІ, які навчаються на отриманих даних, ще більш неправильно сприймають навколишній світ.

"Ми були здивовані, побачивши, як швидко відбувається колапс моделі: вони можуть швидко забути більшу частину вихідних даних, на основі яких вони спочатку навчалися", - заявив один із авторів нового дослідження Ілля Шумайлов.

Простими словами, що більше модель ШІ навчається на даних, згенерованих іншими нейромережами, то більше помилок вона допускає у виробленому контенті, та її відповіді стають менш різноманітними.

«Так само, як ми закидали океани пластиковим сміттям і наповнили атмосферу вуглекислим газом, ми збираємося заповнити інтернет будь-якою нісенітницею. Це ускладнить навчання нових моделей шляхом парсингу веб-сторінок, що дасть перевагу фірмам, які вже зробили це або контролюють доступ до людських інтерфейсів у масштабі. Справді, ми вже бачимо, як стартапи в області ШІ забивають інтернет-архів для отримання навчальних даних», - заявив інший автор дослідження Росс Андерсон, професор техніки безпеки у Кембриджському та Единбурзькому університетах.

Раніше ізраїльський історик і футуролог Юваль Ной Харарі заявив про те, що для того, щоб штучний інтелект став загрозою для виживання людської цивілізації, він не повинен ні мати свідомості, ні бути здатним керувати об'єктами фізичного світу. Водночас, за словами вченого, ШІ вже зміг «зламати операційну систему людської цивілізації».

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі