UA / RU
Поддержать ZN.ua

Маск, Харари, Возняк и еще тысяча экспертов призвали приостановить разработку продвинутого ИИ

Эксперты считают, что искусственный интеллект может изменить историю Земли.

Более тысячи экспертов призвали остановить разработку искусственного интеллекта

Более тысячи экспертов призвали остановить разработку искусственного интеллекта

Более тысячи экспертов, среди которых основатель SpaceX и Tesla Илон Маск, один из основателей Apple Стив Возняк, израильский историк и футуролог Юваль Ной Харари и другие, подписали письмо, в котором призвали поставить на паузу разработку продвинутого искусственного интеллекта. Как следует из письма, они считают, что развитие искусственного интеллекта представляет опасность для развития общества и человечества в целом.

В частности, развитие ИИ может повлечь за собой глубокие изменения в истории жизни на Земле, поэтому его стоит развивать и управлять им с особой осторожностью.

«К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, спрогнозировать или надежно контролировать», - говорится в письме.

Эксперты также отметили, что современные системы искусственного интеллекта уже могут конкурировать с людьми в общих задачах, что поднимает ряд вопросов. Например, должны ли мы разрешить машинам распространять дезинформацию, должны ли стремиться к полной автоматизации рабочих мест, а также развивать нечеловеческий интеллект, который в будущем может превзойти, перехитрить и заменить человека. По словам экспертов, развивать мощные системы искусственного интеллекта можно только в том случае, если мы будем уверены в том, что их влияние будет положительным, а все риски, которые могут быть принесены, - устранимыми.

«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий», - говорится в письме.

Эта пауза необходима лабораториям и независимым экспертам в области ИИ для разработки и внедрения протоколов безопасности, соблюдение которых будет контролироваться внешними экспертами. Эти протоколы должны будут гарантировать, что разработка ИИ безопасна.

Эксперты считают, что пауза не будет мешать развитию ИИ, а позволит отойти от «бездумной гонки» к все более масштабным и непредсказуемым моделям.

Ранее исследование Goldman Sachs показало, что прорыв в развитии ИИ может привести к автоматизации четверти работы, выполняемой в США и Еврозоне. Если технология оправдает ожидания, она может привести к «значительному разрушению» рынка труда, автоматизировав работу 300 миллионов работников, работающих полный рабочий день в крупных экономиках.