Высокопоставленный чиновник Министерства обороны США, занимающийся вопросами искусственного интеллекта, заявил, что ведомству необходимо узнать больше об инструментах ИИ, прежде чем оно полностью возьмет на себя обязательство использовать эту технологию, призвав разработчиков быть более прозрачными. Об этом сообщает Bloomberg.
Главный офицер Пентагона, занимающийся вопросами цифровых технологий и искусственного интеллекта, Крейг Мартелл хочет, чтобы компании делились информацией о том, как построено их программное обеспечение для ИИ – без потери интеллектуальной собственности, чтобы департамент мог "чувствовать себя комфортно и безопасно", принимая его на вооружение.
Программное обеспечение искусственного интеллекта опирается на большие языковые модели (LLM), которые используют огромные массивы данных для работы таких инструментов, как чат-боты и генераторы изображений. Обычно услуги предлагаются без демонстрации их внутренней работы – в так называемом "черном ящике". Поэтому пользователям трудно понять, как технология принимает решение или что заставляет ее работать лучше или хуже с течением времени.
"Мы просто получаем конечный результат построения модели – этого недостаточно", - сказал Мартелл.
По его словам, у Пентагона нет никакого представления о том, как построены модели и какие данные были использованы. Компании также не объясняют, какую опасность могут представлять их системы.
"Они говорят: вот оно, мы не рассказываем вам, как мы это создали, мы не говорим вам, в чем она (система – ред.) хорошая или плохая, мы не говорим вам, предвзята она или нет", - отметил Мартелл.
Он назвал такие модели эквивалентом "найденной инопланетной технологии" для Министерства обороны. Мартелл также обеспокоен тем, что только несколько групп людей имеют достаточно денег, чтобы построить LLM. Он конкретно не называл ни одной компании, но Microsoft Corp., Google Alphabet Inc. и Amazon.com Inc. среди тех, кто разрабатывает LLM для коммерческого рынка, а также стартапы OpenAI и Anthropic.
Мартелл пригласил представителей промышленности и ученых в Вашингтон в феврале, чтобы обсудить эти проблемы. По его словам, симпозиум Пентагона по вопросам оборонных данных и искусственного интеллекта должен выяснить, с какими задачами могут справиться LLM.
По его словам, команда, управляющая рабочей группой по оценке LLM, уже нашла для них 200 потенциальных сфер применения в Министерстве обороны.
"Мы не хотим останавливать большие языковые модели. Мы просто хотим понять их использование, преимущества, опасности и то, как им противостоять", – добавил он.
По словам Мартелла, в министерстве растет поддержка использования LLM. Но там также признают, что если программное обеспечение ИИ фабрикует информацию или выдает неправильный результат, что не редкость, именно они должны взять на себя ответственность за это.
Мартелл надеется, что февральский симпозиум поможет построить то, что он назвал "моделью зрелости", чтобы установить ориентиры, связанные с ошибками в работе систем ИИ, пристрастностью и опасностью. Хотя первый проект отчета может содержать ошибки, связанные с искусственным интеллектом - то, что человек может исправить впоследствии, эти ошибки будут неприемлемы в более рискованных ситуациях, например, в информации, необходимой для принятия оперативных решений.
Закрытая сессия на трехдневном февральском мероприятии будет посвящена тому, как тестировать и оценивать модели, а также защищаться от атак хакеров.
Мартелл сказал, что его отдел играет консультативную роль в Министерстве обороны, помогая разным группам найти правильный способ измерения успеха или неудачи их систем. В настоящее время агентство реализует более 800 проектов в сфере ИИ, некоторые связаны с системами вооружений.
По его словам, учитывая ставки, Пентагон будет применять более высокие требования к использованию алгоритмических моделей, чем частный сектор.
"Будет много случаев использования, когда на кону будут стоять человеческие жизни. Поэтому допускать сбои или как бы мы это ни называли – просто неприемлемо", – отметил Мартелл.
Ранее сообщалось, что американские спецслужбы получат собственный инструмент в стиле ChatGPT, чтобы просеивать лавину публичной информации в поисках зацепок. Центральное разведывательное управление США готовится запустить функцию, подобную известной программе OpenAI Inc., которая будет использовать искусственный интеллект, чтобы предоставить аналитикам лучший доступ к открытым источникам информации.