"Уничтожение человечества" переносится на 2030-е: эксперт признал, что переоценил скорость развития ИИ

Поделиться
Бывший исследователь OpenAI пересмотрел сценарий появления суперинтеллекта на уровне человека.

Бывший сотрудник OpenAI Даниэль Кокотайло пересмотрел собственные прогнозы относительно темпов развития искусственного интеллекта. Он признал, что прогресс в создании трансформационного ИИ происходит медленнее, чем ожидалось ранее. Это меняет и временные рамки потенциальных значительных рисков для человечества, пишет The Guardian.

Кокотайло заявил, что системам искусственного интеллекта понадобится больше времени, чтобы достичь автономного кодирования. Именно эта способность в его предыдущих прогнозах должна была ускорить развитие ИИ до уровня суперинтеллекта. Теперь эти ожидания перенесены на более поздний период.

В апреле Кокотайло опубликовал сценарий "ИИ 2027", который описывал неконтролируемое развитие технологий. В нем говорилось о появлении суперинтеллекта, способного перехитрить мировых лидеров и "уничтожить человечество".

Публикация тогда вызвала глобальную дискуссию среди экспертов и политиков. Вице-президент США Джей Ди Вэнс, вероятно, упомянул его, говоря о гонке ИИ-оружений между США и Китаем. В то же время почетный профессор Нью-Йоркского университета Гэри Маркус назвал текст "художественным произведением", а его выводы — "чистой научной фантастикой".

Сроки появления общего искусственного интеллекта (Artificial General Intelligence, AGI) в последние годы стали ключевой темой для сообществ, занимающихся безопасностью ИИ. После запуска ChatGPT в 2022 году многие прогнозы существенно изменились — некоторые чиновники и эксперты начали говорить о годах, а не десятилетиях.

Команда Кокотайла ранее считала 2027 год "наиболее вероятным" моментом достижения полностью автономного кодирования. В то же время часть авторов допускала более длинные сроки. Сейчас сам Кокотайло признает, что эти оценки были слишком оптимистичными.

"Многие другие люди за последний год отодвинули свои сроки, поскольку осознали, насколько нестабильной является производительность искусственного интеллекта", — отметил эксперт по управлению рисками ИИ Малкольм Мюррей. Он считает, что реальные условия значительно замедляют радикальные сценарии. По его словам, полные общественные изменения сдерживает "огромная инерция реального мира".

По словам директора SaferAI Генри Пападатоса, термин AGI теряет актуальность. Если раньше он противопоставлялся узким алгоритмам, то нынешние модели уже демонстрируют такую широкую функциональность, что старое определение становится менее значимым.

В первоначальном сценарии "ИИ 2027" речь шла об интеллектуальном "взрыве". Он должен был наступить после того, как ИИ полностью автоматизирует исследования и разработки, а в одном из вариантов завершиться уничтожением человечества к середине 2030-х годов. Одним из мотивов такого развития событий авторы называли потребность в пространствах для центров обработки данных и солнечных панелей.

В обновленной версии Кокотайло и другие соавторы изменили эти предположения. Они считают, что автономное кодирование станет возможным в начале 2030-х годов. Новым ориентиром для появления суперинтеллекта назван 2034 год, без прогнозов относительно гибели человечества.

"Кажется, что дела идут несколько медленнее, чем в сценарии ИИ 2027. Наши временные рамки были длиннее, чем 2027 год, когда мы публиковали, а сейчас они еще немного длиннее", — написал Кокотайло в заметке на X .

Несмотря на это, крупные компании не отказываются от амбициозных целей. Генеральный директор OpenAI Сэм Альтман заявил, что автоматизированный исследователь ИИ к марту 2028 года является "внутренней целью" компании. В то же время он предостерег: "Мы можем полностью потерпеть неудачу в достижении этой цели".

"То, что у вас есть сверхумный компьютер, сосредоточенный на военной деятельности, не означает, что вы можете интегрировать его в стратегические документы, которые мы составляли в течение последних 20 лет. Чем больше мы развиваем искусственный интеллект, тем больше видим, что мир — это не научная фантастика. Мир гораздо сложнее", — подытожила исследовательница политики ИИ Андреа Кастанья.

В то же время японский стартап Integral AI, основанный бывшим инженером Google Джадом Тарифи, недавно заявил о создании первого в мире AGI. Разработчики утверждают, что их технология имитирует структуру человеческого неокортекса, способна обучаться автономно без предварительных баз данных и потребляет минимум энергии.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме