Какой должна быть государственная политика поддержки развития и сдерживания опасности искусственного интеллекта

ZN.UA
Поделиться
Какой должна быть государственная политика поддержки развития и сдерживания опасности искусственного интеллекта © Генерація в Runwayml по запросу ZN.UA

Запомните мои слова: ИИ намного опаснее ядерного оружия.

Илон Маск

 

От редакции:

ZN.UA начинает цикл материалов о том, как активно программы искусственного интеллекта завладевают миром. Государственные политики, законы, суды, юридическая практика, международные организации, высшее образование, медицина, культура и искусство, медиа — все эти сферы уже немыслимы без использования ИИ. Каковы риски и обратная сторона технологий? Должны ли государства контролировать эту сферу, и если да, то насколько? В первой статье цикла речь идет о государственной поддержке и сдерживании развития искусственного интеллекта.

Об ИИ (искусственном интеллекте. — С.К.) специалисты по цифровой экономике говорят уже несколько лет. Но количество людей, которые активно заинтересовались разработками в сфере искусственного интеллекта, быстро достигло намного больше 100 миллионов уже в начале 2023 года. Это произошло тогда, когда началась маркетинговая раскрутка новейшего инструмента под рыночным названием ChatGPT (произносится как чат ДжиПиТи).

СhatGPT оказался невероятно мощным разговорным инструментом, который стал революционной моделью в сфере ИИ и обработки естественного языка и является гениальной разработкой стартапа OpenAI. Важная деталь: основные функции этого и других аналогичных инструментов бесплатны для потребителей.

Уже в первые дни использования ИИ потребителями аналитики обратили внимание на огромные его возможности для развития бизнеса, в частности в таких сферах, как быстрое создание текстов практически любых видов, маркетинг и продажи, инженерия, аудит и право, исследования и разработки, например ускорение открытия лекарств благодаря лучшему пониманию болезней и открытию химических структур.

Британские эксперты добавляют к этому списку тихую автоматизацию многих аспектов нашей повседневной жизнедеятельности. ИИ уже поспособствовал революции в управлении процессом ядерного синтеза и ускорению научных достижений, в частности открытию новых технологий, необходимых для борьбы с изменением климата.

С учетом быстрого развития ИИ передовые в технологическом плане государства спешат ввести на национальном и международном уровне политики его регулирования, в том числе и с учетом рисков, потенциально созданных ИИ. Уже понятно, что некоторые способы использования ИИ способны нанести вред нашему физическому и психическому здоровью, нарушить частную жизнь людей и подорвать права человека вплоть до вполне реальных апокалиптических сценариев

В базе данных Организации экономического сотрудничества и развития (ОЭСР) на начало 2024 года от 69 стран и территорий, а также ЕС было презентовано уже более тысячи документов политического и стратегического характера, составляющих основу регулирования ИИ.

В частности национальных стратегий в разных направлениях — 295, инициатив по созданию органов для мониторинга ИИ — 67, документов по результатам обсуждений с экспертами — 152 и т.п.

Эти документы определяют политику регулирования ИИ в отношении 20 основных направлений: корпоративное и государственное управление, цифровая экономика, наука и технологии, промышленность и предпринимательская деятельность, образование и инновации и т.п. Странами-лидерами по разработке документов являются США — 82, Великобритания — 61, Германия — 37, Франция — 34, Япония — 25, Китай — 22. В рамках ЕС таких документов принято всего 62. От Украины на начало января 2024 года на сайте ОЭСР был один документ.

Среди отдельных стран прежде всего обратим внимание на США и Великобританию, Китай и страны ЕС, которые определяют лидерские тенденции регулирования ИИ. 

В то время как в США более децентрализованный подход, сосредоточенный на конкретных применениях искусственного интеллекта, Великобритания применяет метод политического влияния через принятие и действие политических стратегий других регуляторных инструментов.

Как они это делают?

 

США

Десятки миллиардов долларов, вложенных американскими инвесторами в разработку систем ИИ, активное соревнование в технологической сфере с Китаем и потенциальные проблемы для потребителей и национальной безопасности вдохновили топ-политиков США на решительную двухпартийную поддержку и регулирование платформ ИИ (сравните с политическими разногласиями между двумя партиями в отношении особенностей поддержки Украины). Только в 2023 году комитеты Палаты представителей и Сената провели почти три десятка слушаний и подали более 30 законопроектов, ориентированных на ИИ. Это в дополнение к 50 законам и законопроектам, представленным в течение последних четырех лет на уровне отдельных штатов.

В июне 2023 года лидер большинства в Сенате Чак Шумер (демократ) вместе с сенаторами Мартином Хайнриком (демократ) и Тоддом Янгом и Майком Раундсом (республиканцы) обнародовали новое двухпартийное предложение о разработке законодательства для регулирования ИИ.

План повышения глобальной конкурентоспособности США в разработке ИИ предусматривал одновременно надлежащую защиту потребителей и работников. Чтобы содействовать комплексному законодательству в отношении ИИ, был объявлен новый процедурный подход вне границ обычного законодательного процесса.

Для этого были согласованы пять политических принципов: безопасность, подотчетность, основы, прозрачность и инновации.

В дополнение к двухпартийным политическим договоренностям были представлены несколько двухпартийных законопроектов относительно ИИ, связанных с содействием лидерству в исследованиях и разработке ИИ; защитой национальной безопасности; содействием прозрачности; защитой честности выборов; обучением рабочей силы и содействием использованию ИИ федеральным агентством.

А 30 октября 2023 года президент Байден с учетом общих политических усилий издал всеобъемлющий (на 60 страницах!) исполнительный Указ «О безопасной, надежной и достоверной разработке и использовании искусственного интеллекта» для решения ряда проблем, связанных с рисками использования ИИ. 

Указ содержит четкие указания для федеральных агентств по надлежащему и ответственному использованию ИИ, в частности по этическим и правовым соображениям, а также потенциальному влиянию ИИ на деятельность правительства.

Указом также предусмотрена оптимизация процессов закупок продуктов ИИ, стандартизация передового опыта и партнерство с экспертами отрасли для обеспечения ответственного внедрения технологий ИИ. Особое внимание уделено важности этических соображений при развертывании ИИ правительством. Гарантировано, что государственные учреждения используют ИИ таким образом, который соответствует этическим стандартам и уважает права человека. Администрация также предприняла шаги для содействия ответственной разработке систем ИИ, включая обеспечение добровольных обязательств по безопасности и прозрачности ИИ от 15 самых крупных технологических компаний.

Конечный срок выполнения указаний Байдена охватывает от 30 до 365 дней — непосредственно перед президентскими выборами 2024 года.

Обращаем внимание на то, что после обнародования указа в информационном поле США появились сотни серьезных публикаций — от Исследовательской службы Конгресса до сайтов влиятельных юридических фирм о практических аспектах выполнения Указа.

 

Великобритания

Сегодня можно утверждать, что Великобритания является рекордсменом (возможно, после США) по количеству разработанных документов, определяющих политику, стратегию и тактику ИИ.

Но, в отличие от США, где были предложены и приняты законы для управления рисками, которые может создавать ИИ, правительство Великобритании сейчас не спешит этого делать. В последние годы исполнительная власть разработала и опубликовала ряд логически связанных между собой стратегий, пособий и руководств по ИИ.

Офис комиссара по информации (ОКИ) издал в 2020 году рекомендации по использованию ИИ, опубликовав проект руководства по системе аудита ИИ, который констатирует риски, связанные с влиянием на права и свободы и предлагает стратегии их смягчения. Тот же Офис в сотрудничестве с Институтом Алана Тюринга опубликовал Руководство, объясняющее решения, принятые при помощи ИИ

В том же году OKИ опубликовал рекомендации по ИИ и защите данных, ориентированные как на лиц, специализирующихся на соблюдении процедур, так и на разработчиков и пользователей технологий. А Департамент культуры, СМИ и спорта опубликовал еще одну Национальную стратегию, в которой описал лучшие практики использования персональных данных.

В сентябре 2021 года была опубликована Национальная стратегия ИИ, которая очертила десятилетний план развития, имея в виду разработки «самой надежной и инновационной системы управления ИИ в мире». Стратегией, в частности, предполагалось основать центр стандартов ИИ для координации участия Великобритании в стандартизации ИИ во всем мире, а также работать с ведущими исследователями в сфере национальной безопасности, обороны, чтобы предотвратить катастрофические риски использования ИИ.

Позже был обнародован Стандарт алгоритмической прозрачности, направленный на то, чтобы помочь организациям государственного сектора быть прозрачнее в отношении используемых ими алгоритмических инструментов. В конце года вступила в силу Дорожная карта эффективной экосистемы обеспечения ИИ, которая стала частью десятилетнего плана, изложенного Национальной стратегией ИИ, и очертила вид экосистемы обеспечения ИИ, включая внедрение, в частности, нового законодательства. 

Согласно Национальной стратегии ИИ 18 июля 2022 года был опубликован План действий по ИИ. План построен на трех принципах: инвестирование в долгосрочные потребности экосистемы ИИ, обеспечение его полезности для всех секторов и регионов, и эффективное управление им.

В опубликованной в первой половине 2023 года Белой книге о регулировании ИИ (2023) правительство Великобритании предложило «проинновационный подход к регулированию ИИ», который объясняет, как планируется реализовать эту амбицию.

Именно в этом документе сообщается, что на это время правительство не намерено вводить новое законодательство во избежание чрезмерной нагрузки на бизнес. В документе подчеркивается намерение применить отраслевой подход с привлечением ряда регуляторов, который основывается на пяти принципах: безопасность, защищенность и надежность; прозрачность и понятность; справедливость; подотчетность и управление; возможность обжалования и возмещения в случаях причинения вреда. 

Важно обратить внимание на особенности процедуры принятия политических решений в Великобритании. Она отличается тем, что прежде чем определенный государственный орган утвердит такое решение, должен быть подготовлен основательный отчет, в котором максимально понятно (у нас бы сказали: даже для свадебного фотографа) изложена тема, основные проблемы, которые будут решены после принятия документа, и последствия принятия. В качестве примера такого текста рекомендуем ознакомиться с аналитическим документом библиотеки Палаты лордов от 18 июля 2023 года под названием: «Искусственный интеллект: развитие, риски и регулирование». В документе на чрезвычайно понятном языке не только объясняется, что такое искусственный интеллект, но и приводятся основательные аргументы потенциального влияния на развитие экономики, науки, образования, объясняются возможные риски, отмечается опыт других стран.

 

Ключевые отличия государственной политики регулирования ИИ другими государствами-лидерами (Китай, страны ЕС), а также Украиной, у которой сейчас есть шанс стартовать вместе с цивилизованным миром, а не по традиции догонять, будут изложены во второй части статьи.

Статья подготовлена при поддержке программы Cara's Fellowship Program

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме