«Экзистенциальные риски»: зачем премьер Великобритании собирает саммит по ИИ

Поделиться
«Экзистенциальные риски»: зачем премьер Великобритании собирает саммит по ИИ © Getty Images
Ожидается, что на встрече обсудят "скоординированные на международном уровне действия" по снижению рисков, связанных с искусственным интеллектом.

Премьер-министр Великобритании Риши Сунак объявил, что осенью в его стране состоится глобальный саммит по безопасности искусственного интеллекта (ИИ), поскольку растут опасения, что стремительное развитие технологии может выйти из-под контроля.

После прорыва в области генеративного ИИ, который может создавать убедительный текст, изображения и даже голос по команде, растет обеспокоенность по поводу безопасности, и среди деятелей, выражающих тревогу, такие технологические руководители, как Илон Маск. Что можно ожидать от саммита, рассказывает The Guardian.

Какая цель саммита?

В последние недели премьер-министр изменил свой тон в отношении ИИ. Если раньше он был настроен оптимистично в отношении новых возможностей, то теперь он начал говорить про "экзистенциальные риски".

Сунак пытается позиционировать Великобританию как естественный центр для усилий по регулированию отрасли в глобальном масштабе, который может стать мостом между США и Китаем и предложить альтернативу подходу ЕС, который некоторые считают жестким.

Правительство заявляет, что это будет "первый глобальный саммит по безопасности ИИ", на котором будут рассмотрены риски, связанные с технологией, и обсуждены пути их снижения посредством "скоординированных на международном уровне действий".

Необходимы ли скоординированные действия на международном уровне?

Профессионалы отрасли испытывают беспокойство по поводу ИИ и предупреждают об опасностях, которые он представляет. Илон Маск был одним из более чем 50 тысяч человек, подписавших в марте письмо с призывом немедленно приостановить разработку "гигантских" ИИ, а также создать "надежные системы управления ИИ".

Беспокойство по поводу возможной экзистенциальной угрозы со стороны системы, которую человек не сможет контролировать, не является всеобщим. Многие представители технологической отрасли утверждают, что внимание должно быть более пристальным, например, к потенциалу генеративного ИИ, который может создавать правдоподобные имитации текста, изображений и голоса, что может привести к дестабилизирующей дезинформации во время политических выборов.

Как могла бы выглядеть глобальная структура?

Договор о нераспространении ядерного оружия, заключенный при посредничестве ООН и вступивший в силу в 1970 году, является примером глобальной попытки смягчить экзистенциальную угрозу. Международное агентство по атомной энергии следит за соблюдением договора путем проведения инспекций. Договор также способствует распространению мирного использования ядерной энергии.

Письмо, призывающее сделать шестимесячную паузу в разработке ИИ, дает представление о том, что может входить в такие рамки. Оно призывает к созданию специальных регулирующих органов, государственному финансированию исследований в области безопасности, а также к надзору и отслеживанию мощных систем.

Может ли система, подобная соглашению о ядерном оружии, добиться успеха в отношении ИИ?

Как и в случае с ядерным оружием, необходимо создать такую систему, которая сможет справиться с тем, что уже существует и активно развивается. Чат-бот ChatGPT завоевал аудиторию в 100 миллионов пользователей в течение двух месяцев после своего запуска, а поддельное изображение Папы Римского в куртке Balenciaga подчеркнуло способность генеративного ИИ обманывать.

В прошлом месяце один из инженеров Google предупредил, что компания может проиграть из-за технологий ИИ с открытым исходным кодом. Такие разработчики предоставляют свои наработки всем желающим для использования, улучшения или адаптации по своему усмотрению, что затрудняет ограничение использования моделей с открытым исходным кодом.

Китай, скорее всего, не будет участвовать в саммите в Великобритании, который будет открыт для технологических компаний и "стран-единомышленников". То есть международная структура, призванная поставить оградительные барьеры вокруг развития ИИ, может остаться без участия одного из мировых лидеров в области технологий и ИИ.

Что уже происходит в сфере регулирования ИИ?

ЕС добился значительных успехов в этой области и предлагает законодательство, которое будет считаться передовым для регулирования ИИ, подтверждая статус блока как ведущего регулятора в сфере технологий.

В "Белой книге" Великобритании по ИИ изложен ряд принципов, которых должна придерживаться отрасль, но конкретных правил для ее регулирования практически нет. Министры разочаровали некоторых экспертов, отказавшись от идеи создания нового регулятора, который будет заниматься исключительно ИИ.

"Большая семерка" договорилась о создании межправительственного форума под названием "Хиросимский процесс ИИ" для обсуждения вопросов, связанных с быстро развивающимися инструментами.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме