Более тысячи экспертов, среди которых основатель SpaceX и Tesla Илон Маск, один из основателей Apple Стив Возняк, израильский историк и футуролог Юваль Ной Харари и другие, подписали письмо, в котором призвали поставить на паузу разработку продвинутого искусственного интеллекта. Как следует из письма, они считают, что развитие искусственного интеллекта представляет опасность для развития общества и человечества в целом.
В частности, развитие ИИ может повлечь за собой глубокие изменения в истории жизни на Земле, поэтому его стоит развивать и управлять им с особой осторожностью.
«К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, спрогнозировать или надежно контролировать», - говорится в письме.
Эксперты также отметили, что современные системы искусственного интеллекта уже могут конкурировать с людьми в общих задачах, что поднимает ряд вопросов. Например, должны ли мы разрешить машинам распространять дезинформацию, должны ли стремиться к полной автоматизации рабочих мест, а также развивать нечеловеческий интеллект, который в будущем может превзойти, перехитрить и заменить человека. По словам экспертов, развивать мощные системы искусственного интеллекта можно только в том случае, если мы будем уверены в том, что их влияние будет положительным, а все риски, которые могут быть принесены, - устранимыми.
«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий», - говорится в письме.
Эта пауза необходима лабораториям и независимым экспертам в области ИИ для разработки и внедрения протоколов безопасности, соблюдение которых будет контролироваться внешними экспертами. Эти протоколы должны будут гарантировать, что разработка ИИ безопасна.
Эксперты считают, что пауза не будет мешать развитию ИИ, а позволит отойти от «бездумной гонки» к все более масштабным и непредсказуемым моделям.
Ранее исследование Goldman Sachs показало, что прорыв в развитии ИИ может привести к автоматизации четверти работы, выполняемой в США и Еврозоне. Если технология оправдает ожидания, она может привести к «значительному разрушению» рынка труда, автоматизировав работу 300 миллионов работников, работающих полный рабочий день в крупных экономиках.