Ученые рассказали о новой опасности искусственного интеллекта

Поделиться
Ученые рассказали о новой опасности искусственного интеллекта Ученые рассказали об опасности развития ИИ © depositphotos / Wavebreakmedia
Она связана с тем, что ИИ учится на данных, сгенерированных нейросетями.

Ученые из Великобритании и Канады решили исследовать, что будет, если контент, сгенерированный искусственным интеллектом, начнет распространяться по интернету, а другие модели ИИ будут учиться на нем, а не на созданном человеком. По словам исследователей, это приведет к появлению «необратимых дефектов» в получаемых моделях, сообщает Venture beat.

В ходе исследования ученые рассматривали генеративные модели искусственного интеллекта, которые могут создавать тексты на основании введенных слов и изображения на основании приведенных картинок. Они пришли к выводу, что «обучение на основе данных, созданных другими моделями, приводит к коллапсу модели — дегенеративному процессу, при котором со временем модели забывают истинное базовое распределение данных…». Они добавляют, что это  неизбежно даже в случаях с «почти идеальными условиями для долгосрочного обучения».

Ученые отмечают, что со временем ошибки накапливаются, из-за чего модели ИИ, которые учатся на полученных данных, еще более неправильно воспринимают окружающий мир.

«Мы были удивлены, увидев, как быстро происходит коллапс модели: они могут быстро забыть большую часть исходных данных, на основе которых они изначально учились», - заявил один из авторов нового исследования Илья Шумайлов.

Простыми словами, чем больше модель ИИ обучается на данных, сгенерированных другими нейросетями, тем больше ошибок она допускает производимом контенте, а ее ответы становятся менее разнообразными.

«Точно так же, как мы забросали океаны пластиковым мусором и наполнили атмосферу углекислым газом, мы собираемся заполнить интернет всякой ерундой. Это затруднит обучение новых моделей путем парсинга веб-страниц, что даст преимущество фирмам, которые уже сделали это или контролируют доступ к человеческим интерфейсам в масштабе. Действительно, мы уже видим, как стартапы в области ИИ забивают интернет-архив для получения обучающих данных», - заявил другой автор исследования Росс Андерсон, профессор техники безопасности в Кембриджском и Эдинбургском университетах.

Ранее израильский историк и футуролог Юваль Ной Харари заявил о том, что для того, чтобы искусственный интеллект стал угрозой для выживания человеческой цивилизации, он не должен ни обладать сознанием, ни быть способным управлять объектами физического мира. Вместе с тем, по словам ученого, ИИ уже смог «взломать операционную систему человеческой цивилизации».

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме