Технологические компании активно привлекают религиозных лидеров к дискуссиям об этике искусственного интеллекта. На фоне стремительного развития генеративного ИИ представители индустрии ищут новые подходы к формированию моральных принципов для технологий, которые все глубже интегрируются в общество, пишет Associated Press.
На прошлой неделе в Нью-Йорке состоялся первый круглый стол Faith-AI Covenant, в котором приняли участие представители компаний Anthropic и OpenAI, а также лидеры различных религиозных сообществ. Инициатором встречи стал межконфессиональный альянс из Женевы, который занимается вопросами экстремизма, радикализации и торговли людьми.
Организаторы заявили, что подобные встречи планируют провести также в Пекине, Найроби и Абу-Даби. По словам баронессы Джоанны Шилдс, которая ранее работала в Google и Facebook, а сейчас участвует в британской политике, регуляторы не успевают за темпами развития технологий.
Шилдс также отметила, что руководители ИИ-компаний в основном стремятся действовать этично, и поэтому прямая связь между разработчиками и духовными лидерами является критически важной. Конечной целью этой инициативы она назвала создание единого свода принципов, сформированного представителями различных верований, которого корпорации будут придерживаться в своей работе.
"Этот диалог, эта прямая связь настолько важны, потому что люди, которые это строят, понимают силу и возможности того, что они строят, и они хотят делать это правильно — большинство из них", — подчеркнула Шилдс.
В круглом столе приняли участие представители различных конфессий, в частности Индуистского храмового общества Северной Америки, Международного сообщества бахаи, Коалиции сикхов, Греческой православной архиепархии Америки и Церкви Иисуса Христа Святых Последних Дней. Часть религиозных организаций еще до начала сотрудничества с технокомпаниями обнародовала собственные рекомендации по использованию ИИ.
В частности, Церковь Иисуса Христа Святых Последних Дней в своих наставлениях отметила, что искусственный интеллект не способен заменить "божественное вдохновение", однако может быть полезным инструментом для обучения. Южная баптистская конвенция в 2023 году также призвала активно влиять на развитие новых технологий, а не реагировать на их последствия постфактум.
Одним из наиболее активных участников диалога стала компания Anthropic. В своей публичной "Конституции Claude" компания описывает принципы поведения ее чат-бота, которые формировались при участии религиозных и этических экспертов.
"Мы хотим, чтобы Claude вел себя так, как вел бы себя глубоко этичный человек", — заявляли в Anthropic.
В то же время исследователи компании Mindgard заявили, что смогли обойти этические ограничения Claude без прямых запросов. Модель сама предлагала запрещенные материалы — от вредоносного кода до инструкций по созданию взрывчатки.
Часть экспертов скептически оценивает новый союз технологической индустрии и религиозных организаций. Генеральный директор некоммерческой организации Humane Intelligence Румман Чоудхури считает, что подобные инициативы могут отвлекать внимание от более фундаментальных вопросов.
"В лучшем случае это отвлечение. В худшем — способ избежать разговора о действительно важных вещах", — подчеркнула Чоудхури.
По мнению Чоудхури, Кремниевая долина постепенно отказывается от идеи универсальной этики для ИИ, поскольку поняла, что разные общества имеют разные моральные представления. Другие критики добавляют, что дискуссии об "этическом ИИ" часто сосредотачиваются на том, как сделать технологию более безопасной, вместо вопроса, все ли подобные технологии вообще стоит создавать.
Исследователь OpenAI Бенджамин Арнав отметил, что нынешняя система оценки моделей искусственного интеллекта является ненадежной из-за отсутствия стандартизации. По его словам, показатели, которые широко используются как доказательство прогресса, часто создаются в разных условиях и поэтому вводят в заблуждение. Это влияет на решения по безопасности, развертыванию моделей и оценке рисков.
