В Давосе продолжаются панельные дискуссии в рамках Всемирного экономического форума. Многие из них посвящены вопросам развития искусственного интеллекта.
В рамках одной из них, «Расширяющаяся вселенная генеративных моделей», участники обсудили, возможно ли в ближайшее время еще большее развитие моделей или же мы вышли на своеобразное плато.
Один из основателей и генеральный директор Cohere Inc. Эйдан Гомес заявил о том, что развитие невозможно, если исследователи в этой области будут идти по тому же пути, что и сейчас.
«Пока наша стратегия работала хорошо. Построить больший суперкомпьютер, дать больше данных, и мы получали отличные результаты… Но мы знаем, что нужно делать дальше. Нам нужен онлайн-опыт, нам нужно взаимодействовать с реальным миром. Как эти модели развиваются сейчас: у нас есть все эти офлайн-тренировки, никакого взаимодействия с реальным миром. Мы внедряем их в продукт, и он статичный, они не учатся. И это должно измениться, модели должны учиться постоянно», - заявил Гомес.
Он также добавил, что разработанные нейросети должны, как и люди, обучаться сами по себе, самосовершенствоваться. И главным препятствием, с которым столкнулись ученые сейчас, является доступ к данным, которые позволят сделать модели умнее, чем они есть.
«До этого вы могли остановить любого на улице и попросить его обучить модель. И это улучшило бы ее качество. Но они становятся действительно умными. Уже нельзя подойти к простому прохожему. Нужно звать магистра математики или студента-биолога. А потом доктора наук. А потом кого? Человечество и его знания – это верхний предел для существующей стратегии. И мы должны выйти за эти рамки», - заявил Гомес.
CEO The Atlantic Николас Томпсон развил идею Гомеса, допустив, что в дальнейшем это приведет к тому, что нейросети будут обучаться, общаясь друг с другом и создавая синтетические данные. В этом случае мы не сможем быть уверены в том, что они не исказят свое собственное видение.
По словам Гомеса, необходимо понимать, что нейросети не будут продуцировать синтетические данные в закрытой коробке, они должны взаимодействовать с окружающим миром, как люди. Выдвигать гипотезы, проверять их и выдвигать новые.
Профессор информатики Стенфордского университета, основательница и генеральный директор Insitro Inc Дафна Коллер подчеркнула, что сейчас у нас нет возможности создать полную модель мира, поскольку он очень сложен. Но у нас есть возможность экспериментировать и смотреть, что выйдет в итоге, это критически важно для развития интеллекта человека.
«Если мы хотим, чтобы эти машины развились, мы должны дать им возможность экспериментировать с миром. Дать компьютерам возможность создавать эксперименты, простые или сложные. Это позволит компьютеру узнать больше о невероятной сложности этого мира и выйти за пределы того, чему человек может их научить», - добавила она.
Ранее израильский историк и футуролог Юваль Ной Харари заявил о том, что для того, чтобы искусственный интеллект стал угрозой для выживания человеческой цивилизации, он не должен ни обладать сознанием, ни быть способным управлять объектами физического мира. Вместе с тем, по словам ученого, ИИ уже смог «взломать операционную систему человеческой цивилизации».
Осенью Великобритания, США, ЕС и Китай согласились, что искусственный интеллект представляет потенциально катастрофическую угрозу для человечества, подписав первую международную декларацию, посвященную этой технологии.