Не все системы ИИ должны быть одинаково общедоступными – правовед

Поделиться
Не все системы ИИ должны быть одинаково общедоступными – правовед Правовед выступил против безконтрольного распространения ИИ © depositphotos/BiancoBlue
По его словам, чем более умелым становится ИИ, тем ближе риск катастрофы.

Не все модели искусственного интеллекта (ИИ) должны находиться в свободном доступе. Чем более способным становится ИИ, тем ближе человечество подходит к катастрофе. Такое мнение выразил Лоуренс Лессиг — профессор права и лидерства в юридической школе Гарвардского университета и соучредитель Creative Commons в колонке для The Economist.

Он отмечает, что появление программного обеспечения (ПО) с открытым кодом, которое было бесплатным, стимулировало технические инновации и распространение технических навыков. Свобода пользоваться программным обеспечением позволила выучиться множеству молодых программистов и легла в основу бизнесов, которые питают цифровую экономику. Соответственно, кажется естественным беспрепятственное распространение моделей ИИ.

Но Лессиг подчеркивает, что между обычным программным обеспечением и системами ИИ существует значительная разница.  По его мнению, ИИ – скорее категория, чем технология. Как и категория «оружие», она варьируется от относительно безвредной до потенциально катастрофической. Уровень доступности к рогатке и «Стингеру» - разный. Так же должно быть и с ИИ.

Он добавляет, что неочевидно также, как в этом случае должны применяться нормы свободного программного обеспечения. Открытое программное обеспечение — это программное обеспечение, исходный код которого выпускается по лицензиям, которые позволяют другим копировать и изменять код. Именно доступ к этому коду распространяет знания. Но модели ИИ состоят как минимум из четырех типов цифровых компонентов, только три из которых на самом деле являются программным обеспечением. Четвертый — веса модели — является одновременно самым мощным и самым неясным.

Веса модели — это переменные или числовые значения, используемые для перевода входных данных в выходные. Они инкапсулируют все, чему модель научилась во время обучения. Например, если обучение стоило миллиард долларов, то веса модели отражают эту стоимость. Если обучение стоило тысячу долларов, эти веса будут менее ценными.

Непонятно, какой из этих компонентов должен быть доступен всем, чтобы соответствовать критериям ПО с открытым кодом.

Лессиг считает, что все четыре компонента должны быть доступными, когда дело касается моделей ИИ с ограниченными возможностями. Но эта логика не должна применяться к высокоэффективным моделям, особенно, когда речь идет об их весах. Чему бы ни научили весы моделей, это преимущество должно быть сопоставлено с огромным риском неправильного использования, который представляют высокоэффективные модели. В какой-то момент этот риск будет слишком высоким.

Лессиг отмечает, что Марк Цукерберг – основатель Facebook и создатель Llama, самого мощного на сегодняшний день релиза с открытыми весами, считает, что открытые релизы «значительно безопаснее, поскольку системы более прозрачны и могут быть тщательно изучены». Правовед отмечает, что неизвестно, когда это случится. И если проблема будет обнаружена уже после релиза, нет никакого облегчения в том, что ее обнаружат сразу все пользователи.

Он также обратил внимание на заверения Цукерберга в том, что веса моделей защищены от неправомерного использования. Но проведенные исследования свидетельствуют о том, что эту защиту легко снять. У Llama 2 были ограждения, чтобы пользователи не могли развернуть его в ненадлежащих или небезопасных целях. Но в 2023 году и менее чем за 200 долларов команда из Palisade Research смогла отключить их и создать неограниченную версию Llama 2.

И модели с открытыми весами могут становится все более опасными по мере того, как их базовые модели становятся все более мощными, а методы снятия ограничений – все более сложными.

По словам Лессига, дело не только в том, что релизы с открытым весом могут быть перехвачены. Основной риск связан с тем, что после релиза их уже нельзя отозвать. И риски зависят от регулирующих возможностей инфраструктуры, в которой работает ИИ.

Частные компании, которые конкурируют друг с другом, не достаточно стимулированы для того, чтобы избежать риска катастрофы. Не поможет и простой запрет создания ИИ с открытым кодом. Необходимо создать среду, в которой можно будет разрабатывать безопасный ИИ, и регулирующее суждение, чтобы определять, когда общественный риск становится слишком высоким.

В мае Совет Европы согласовал Конвенцию об искусственном интеллекте, ставшую первым примером международно-правого документа, который носит обязательный характер. Кандидат юридических наук Сергей Козьяков объяснил, почему это важно.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме