Президент Франции Эммануэль Макрон не сдерживал слова, когда говорил с технологическим журналом Wired о приближении угроз от искусственного интеллекта. Технологическая революция, которую приближает умная машина, по словам французского лидера, "в действительности политическая революция".
"В США ее продвижением полностью занимается частный сектор, крупные корпорации, а также некоторые стартапы, которые ведут с ними дела. Все выборы, которые они сделают, будут частными выборами, которые касаются коллективных ценностей", - цитирует слова Макрона EUObserver.
"С другой стороны, китайские игроки собирают немало данных при содействии правительства, чьи принципы и ценности не такие, как наши", - добавил французский перзидент, подчеркнув, что тот, кто хочет определить влияния искусственного интеллекта, должен участвовать в процессе еще на этапе разработки и установления правил.
"Если мы хотим защитить наш подход к конфиденциальности, наше коллективное желание личной свободы против технологического прогресса, целостности человека и человеческого ДНК, если мы хотим иметь собственный общественный выбор, выбор цивилизации, нужно стать активной частью революции искусственного интеллекта", - отметил Макрон, добавив, что он хотел бы "определить дискуссию на глобальном уровне".
Похожий сигнал поступил из Брюсселя сегодня, 25 апреля, когда Еврокомиссия представила стратегию в отношении искусственного интеллекта. В ней речь шла в частности о том, что Евросоюз должен возглавить процесс определения этики новой технологии. Пока нет универсального определения того, что такое "искусственный интеллект". В общем под этим термином подразумевают системы, которые могут делать автономные или полуавтономные решения, опираясь на анализ среды или больших массивов данных. Автономные автомобили - очевидный пример. Но, некоторые приложения, такие как, например, сервисы, которые предлагают фильмы опираясь на предыдущие запросы пользователей, сайты переводов, теперь стали повседневностью, а раньше считались "искусственным интеллектом".
Стратегия Еврокомиссии ставит перед собой три главные цели. Во-первых, это усиление технологических и производственных возможностей ЕС с применением искусственного интеллекта в различных сферах экономики. Во-вторых, обеспечить "надлежащие этические и юридические рамки", опираясь на ценности ЕС. В-третьих, подготовиться к социоэкономическим изменениям. В документе говорится о том, что искусственный интеллект должен уважать ценности и фундаментальные права в ЕС, а также этические принципы, такие как ответственность и прозрачность.
"ЕС может сделать уникальный вклад в глобальные дебаты об искусственном интеллекте, опираясь на свои ценности и фундаментальные права", - говорится в стратегии Еврокомиссии.
В документе отмечается, что Еврокомиссия создаст специальный "Европейский альянс по искусственному интеллекту", задачей которого будет написать этические нормы искусственного интеллекта до конца 2018 года. Это значительно более сжатые сроки, чем те, что были указаны в предыдущих проектах стратегии.
Палата лордов парламента Великобритании тоже предлагала разработать этический код поведения для искусственного интеллекта.
"Общественность заслуживает гарантий, что искусственный интеллект будет использован в ее интересах и не будет применен для эксплуатации или манипуляции ею. Много организаций и компаний также стремятся подтвердить эти надежды и уменьшить беспокойство", - говорится в документе верхней палаты британского парламента.
Лорды также рекомендовали правительству королевства провести глобальный саммит по искусственному интеллекту в Лондоне до конца 2019 года, чтобы Британия смогла возглавить процесс формирования этики новой технологии. США, по их мнению, вряд ли возьмут на себя эту роль, потому что администрация Дональда Трампа "не заинтересована в искусственном интеллекте". Кроме того, доминирование мощных американских технологических компаний делает невозможным "действительно демократические дебаты" в Америке.
Ранее издание The Economist писало, что искусственному интеллекту придется научиться объяснять свои "мысли" и действия. Человечество больше не боится, что машина выйдет из-под контроля и начнет делать что-то, о чем ее не просили. Страшнее то, что она выполнит нужную работу, но в какой-то непредсказуемый и вредный способ, который она определит как рациональный, но который дорого обойдется людям. Ведь разработчики до сих пор не всегда точно понимают, как именно происходит процесс машинного обучения.