Ученые из Великобритании и Канады решили исследовать, что будет, если контент, сгенерированный искусственным интеллектом, начнет распространяться по интернету, а другие модели ИИ будут учиться на нем, а не на созданном человеком. По словам исследователей, это приведет к появлению «необратимых дефектов» в получаемых моделях, сообщает Venture beat.
В ходе исследования ученые рассматривали генеративные модели искусственного интеллекта, которые могут создавать тексты на основании введенных слов и изображения на основании приведенных картинок. Они пришли к выводу, что «обучение на основе данных, созданных другими моделями, приводит к коллапсу модели — дегенеративному процессу, при котором со временем модели забывают истинное базовое распределение данных…». Они добавляют, что это неизбежно даже в случаях с «почти идеальными условиями для долгосрочного обучения».
Ученые отмечают, что со временем ошибки накапливаются, из-за чего модели ИИ, которые учатся на полученных данных, еще более неправильно воспринимают окружающий мир.
«Мы были удивлены, увидев, как быстро происходит коллапс модели: они могут быстро забыть большую часть исходных данных, на основе которых они изначально учились», - заявил один из авторов нового исследования Илья Шумайлов.
Простыми словами, чем больше модель ИИ обучается на данных, сгенерированных другими нейросетями, тем больше ошибок она допускает производимом контенте, а ее ответы становятся менее разнообразными.
«Точно так же, как мы забросали океаны пластиковым мусором и наполнили атмосферу углекислым газом, мы собираемся заполнить интернет всякой ерундой. Это затруднит обучение новых моделей путем парсинга веб-страниц, что даст преимущество фирмам, которые уже сделали это или контролируют доступ к человеческим интерфейсам в масштабе. Действительно, мы уже видим, как стартапы в области ИИ забивают интернет-архив для получения обучающих данных», - заявил другой автор исследования Росс Андерсон, профессор техники безопасности в Кембриджском и Эдинбургском университетах.
Ранее израильский историк и футуролог Юваль Ной Харари заявил о том, что для того, чтобы искусственный интеллект стал угрозой для выживания человеческой цивилизации, он не должен ни обладать сознанием, ни быть способным управлять объектами физического мира. Вместе с тем, по словам ученого, ИИ уже смог «взломать операционную систему человеческой цивилизации».