Существует соблазн — интеллектуально удобный и потому опасный — рассматривать искусственный интеллект как чисто технологическую проблему. Этот соблазн особенно силен среди тех, кто вырос в культуре STEM и привык к тому, что сложные проблемы имеют четкие технические решения.
В Украине искусственный интеллект до сих пор воспринимают как технологию, которую можно просто внедрить, и это — задача Минцифры. Но этого недостаточно. Ведь ИИ — это не только разработки и сервисы. Это интересы, конфликты и правила. А среды, где пересекаются интересы бизнеса, государства, безопасности и общества — в Украине пока нет.
В США такая система уже сформировалась. Если внимательно следить за тем, что происходит сегодня в Вашингтоне — не в технологических стартапах, а именно в Белом доме, в Конгрессе, в публичных дискуссиях ведущих американских интеллектуалов — становится очевидно: ставки гораздо выше. ИИ превратился в поле битвы за нечто более фундаментальное, чем доля рынка или преимущество в производительности. Он стал полем битвы за то, кто будет определять антропологические, правовые и культурные координаты новой цивилизационной эпохи.
Чтобы понять, как в США относятся к искусственному интеллекту, нужно обратить внимание не только на документы, но и на идеи, которые за ними стоят. В центре — спор между двумя подходами.
Первый представляет Росс Даутат — один из самых влиятельных консервативных обозревателей The New York Times, голос неоконсервативного католицизма в американской общественной дискуссии. По его мнению, права человека не создаются государством — они существуют независимо от него как базовая данность, которую государство лишь признает, а не устанавливает. Поэтому и технологии, в частности ИИ, должны опираться на моральный фундамент. Иначе они перестают быть нейтральным инструментом и начинают навязывать миру свою собственную логику — безличную и лишенную понятия достоинства.
Другой подход — Стивена Пинкера, гарвардского когнитивного психолога, одного из самых известных популяризаторов науки и сторонника «просветительского гуманизма». Он считает, что моральный прогресс — это результат развития науки, институций и рационального опыта. ИИ здесь — мощный инструмент, который требует эффективного управления, а не морального «освящения».
Эта полемика — не абстрактная. Она прямо отражается в политике Белого дома в отношении ИИ. В публичных выступлениях звучит язык ценностей — «достоинство», «семья», «нравственный порядок». В нормативных подходах — речь идет об эффективности: «конкурентоспособность», «инфраструктура», «безопасность». Эти две логики не сливаются в одну, но сосуществуют — и именно из этого напряжения формируется американская политика ИИ.
Пять башен
В США решения о развитии и правилах использования искусственного интеллекта принимаются не в одном центре. На них влияют различные группы — политики, технологические компании, военные, общество. У каждой из них — свои интересы и видение. Для удобства их можно представить в виде «башен влияния». Условно их пять.
Ценностно-консервативная. Это политики, интеллектуалы и общественные лидеры, которые мыслят в категориях ценностей. Они не создают технологий, а отвечают на вопрос, зачем они нужны.
В их риторике звучит идея: если ИИ становится новой инфраструктурой реальности, он должен опираться на моральные принципы, а не только на алгоритмы. Права человека существуют независимо от государства — и технологии должны это учитывать. Отсюда акценты на достоинстве, семье, вере, защите детей. Идеи Даутата здесь играют роль интеллектуального катализатора.
Ключевая функция этой башни — легитимизировать технологии, формировать их общественное одобрение и моральное обоснование.
Но в то же время слабость этой башни очевидна: она не разрабатывает технологии и не строит дата-центры.
Технологически-бизнесовая
Это технологические компании, стартапы, инвесторы, инженеры и предприниматели, которые непосредственно создают и масштабируют ИИ. Это центр реальной силы. Именно здесь формируется материальная база эпохи ИИ: вычислительные мощности, большие модели, инвестиционные потоки, энергетическая инфраструктура.
Для этой группы ИИ — не философская проблема, а промышленный проект, сопоставимый с железными дорогами XIX века или Интернетом XX века. Но важно другое: эта башня не просто развивает технологии — она фактически устанавливает правила игры. Через стандарты, платформы, архитектуры моделей и доступ к вычислениям она определяет, как работает рынок и экосистема ИИ — часто быстрее, чем это успевает оформить закон.
Роль этой башни: разрабатывать технологии и задавать темп развития.
Слабость: ориентация на скорость и масштаб, а не на последствия.
Геоэкономическая и безопасностная
Это государственные институции, военные структуры, спецслужбы, а также часть политической элиты, ответственной за безопасность и международную политику.
Здесь ИИ становится инструментом власти. Логика проста: кто его контролирует — тот влияет на экономику, безопасность и глобальные правила игры.
Именно здесь возникают ограничения на экспорт микросхем, контроль над цепочками поставок, технологические альянсы и логика соперничества между США и Китаем.
Это уровень жесткой политики, при котором ИИ рассматривается как стратегический ресурс — подобно ядерному оружию или космическим программам ХХ века.
Роль этой башни — обеспечивать контроль и геополитическое преимущество.
Ее слабость — в игнорировании социальных и этических последствий.
Культурная
Это общественные интеллектуалы, политики, часть технологического сообщества и пользователи, которые критически относятся к тому, как ИИ влияет на содержание и смыслы. Они реагируют на ситуацию, когда алгоритмы начинают не только отражать, но и иногда навязывать определенные ценности и взгляды. Их главный тезис: ИИ не должен становиться инструментом культурного доминирования. Вопрос не только в цензуре или предвзятости, а в другом — кто определяет, что считать «правильным знанием» в цифровую эпоху. Эта «башня» давит на разработчиков, требуя большей нейтральности моделей, критикует практики модерации контента и отстаивает право на альтернативные взгляды. Фактически речь идет о новом фронте — борьбе за то, как алгоритмы формируют представление о реальности.
Роль башни — защищать разнообразие взглядов и ставить под сомнение «нейтральность» алгоритмов.
Слабость — в том, что существует риск перерастания в политический конфликт без четких решений.
Социально-территориальная
Наименее заметная, но потенциально самая взрывоопасная башня. Это те, кто не создает ИИ, но живет с его последствиями: местные сообщества, власти штатов, родители, авторы, креативные индустрии, потребители энергии. Для них ИИ — это не «будущее», а риск нарушения настоящего: нагрузка на энергосистемы, потеря рабочих мест, подрыв авторского права, влияние на детей. Именно отсюда возникает «лоскутное регулирование» политики в отношении ИИ на уровне штатов, когда каждый из них принимает собственные правила — то, чего так боится федеральный центр.
Роль этой башни — реагировать на последствия и требовать ограничений.
Слабость — в фрагментарности и отсутствии системного подхода.
Ключевой момент: эти пять «башен» не образуют единой гармоничной системы. Они постоянно конфликтуют — и именно это движет процессом формирования политики и правил в сфере ИИ. Технологический бизнес стремится к ускорению — популисты требуют ограничений. Геополитики стремятся к централизации, а общество, СМИ и публичные интеллектуалы — к контролю над содержанием. В результате появляется не целостная стратегия развития и регулирования ИИ, а постоянный баланс интересов — когда разные группы не устраняют противоречий, а вынуждены с ними жить и как-то их согласовывать. Это болезненно. Это неэффективно. Но это и есть источник определенной устойчивости политики и практики развития и использования ИИ.
Украина: отсутствие собственной игры
На фоне американской «архитектуры башен» — несмотря на всю ее конфликтность и напряженность — ситуация в Украине выглядит как принципиально иной класс проблем. Скажем прямо: Украина в настоящее время находится в том, что можно назвать доюрисдикционным состоянием регулирования ИИ. Это не просто отставание в технологиях или пробелы в законодательстве. Это значит, что правила еще не сформированы, центры влияния не институционализированы, а борьба идет не между «башнями» — потому что их нет — а между концепциями, которые пока не имеют никакого носителя, кроме нескольких аналитических групп и энтузиастов-законодателей.
Формально роль инициатора взяло на себя Министерство цифровой трансформации. Декларативно — курс на развитие ИИ как элемента цифровой экономики. Но между декларацией и системой — «режим ожидания». Нет четкой доктрины, приоритетов и инструментов реализации политики в области ИИ — ни регуляторных, ни финансовых, ни инфраструктурных.
В парламентской сфере ситуация не лучше. Две законодательные группы — одна ориентирована на адаптацию Акта ЕС об ИИ (повторяя постулаты Даутата), вторая — на разработку собственного закона (почти полностью в соответствии с Пинкером) — в настоящее время существуют параллельно, без содержательного синтеза. Ни одна из этих логик сама по себе не решает главную проблему — отсутствие центра, способного сформировать целостную стратегию.
Если Украина не сформирует собственную конфигурацию, вполне реальной для нас может стать нормативная колонизация цифрового пространства по одному из трех сценариев.
- Полное следование чужим правилам без учета собственного контекста. И тогда мы получим нормативную базу, разработанную для Франции и Германии, но не для страны, которая ведет войну и одновременно пытается совершить технологический скачок.
- Фрагментарное заимствование различных моделей регулирования ИИ. В этом случае мы получаем юридическую мозаику, которая не защищает ни разработчиков, ни граждан, ни государство.
- Самый опасный сценарий. Украина просто становится полигоном для тестирования чужих технологических решений.
Во всех трех сценариях теряется одно и то же: суверенитет в сфере формирования цифровых правил. А в XXI веке это не менее важно, чем суверенитет над границами или ресурсами.
Возможности для нашей страны
В то же время такая слабость в сфере регулирования ИИ представляет собой и возможность. В США действует сложная и медленная система. В Европе — жесткая регуляторная модель. А Украина пока не ограничена ни тем, ни другим. А значит, теоретически может создать свою конфигурацию политики в области регулирования ИИ.
Но для этого нужно:
- признать, что ИИ — это не только технология, но и политика, и ценности;
- создать институты, которые будут представлять различные интересы в сфере использования ИИ;
- сформулировать собственную позицию, а не просто перенимать чужие.
И главное — принять тот факт, что конфликт между различными подходами к регулированию ИИ не является проблемой. Он является условием появления решений.
Сегодня Украина еще даже не начала настоящую дискуссию о том, что для нее значит искусственный интеллект. Мы не спорим о пути — мы еще не определили цель. Мир движется к модели, где правила устанавливают те, кто способен объединить технологии, интересы и ценности. Остальные — приспосабливаются.
Вопрос, который для Украины остается открытым и является важнейшим стратегическим вопросом на следующее десятилетие, звучит резко: появится ли у нас собственный «локомотив», который будет определять правила в сфере ИИ, — или мы навсегда останемся пассажирами в вагонах, которые построены и управляются другими?
