"Это выглядит не очень хорошо": Сэм Альтман назвал сделку OpenAI с Пентагоном поспешной

Поделиться
Генеральный директор OpenAI Сэм Альтман. © Генеральный директор OpenAI Сем Альтман/Getty Images
Компания развернет модели в секретной сети Минобороны США после запрета Anthropic.

Генеральный директор OpenAI Сэм Альтман признал, что соглашение с Министерством обороны США было заключено слишком быстро — сразу после запрета использования инструментов другого разработчика Anthropic. В то же время компания уже договорилась о развертывании своих моделей искусственного интеллекта в секретной сети ведомства.

Альтман заявил в соцсети X, что OpenAI стремилась к деэскалации отношений между правительством и технологической отраслью. Он признал риски для репутации компании, но считает партнерство с государством критически важным.

"Это точно было сделано в спешке, и выглядит не очень хорошо", — отметил Альтман, комментируя договоренности с Пентагоном.

По словам гендиректора OpenAI, компания рассчитывала, что соглашение поможет снизить напряжение между правительством и индустрией искусственного интеллекта. Он добавил: "Мы действительно хотели деэскалации ситуации, и считали предложенную сделку выгодной".

Альтман подчеркнул, что в случае успеха OpenAI будет выглядеть "гениями и компанией, которая приложила немало усилий, чтобы помочь отрасли". Однако в противном случае компанию и в дальнейшем будут считать "поспешной и неосторожной".

Компания подтвердила, что достигла соглашения с Министерством обороны США по развертыванию своих моделей в секретной сети ведомства. По словам Альтмана, во время переговоров министерство демонстрировало "глубокое уважение к безопасности и желание сотрудничать для достижения наилучшего возможного результата".

OpenAI отмечает, что основой ее миссии остаются безопасность искусственного интеллекта и широкое распределение его преимуществ. Два ключевых принципа, которых требовала и запрещена Anthropic, — блокирование использования искусственного интеллекта в массовом внутреннем наблюдении и обязательная ответственность человека за применение силы, в частности в автономных системах вооружения — включены в соглашение.

Компания также создаст технические предохранители для надлежащей работы моделей и будет разворачивать их только в облачных сетях. Отдельно будет применяться FDE для поддержки моделей и обеспечения их безопасности.

"Я считаю, что хорошие отношения между правительством и компаниями, которые разрабатывают эту технологию, будут критически важными в течение следующих нескольких лет", — подытожил Альтман.

Еще в начале февраля Пентагон инициировал переговоры с лидерами рынка ИИ с требованием убрать стандартные этические и безопасностные ограничения для инструментов, которые разворачиваются в секретных военных сетях. Военное руководство стремится использовать искусственный интеллект для планирования боевых миссий и определения целей, настаивая на праве применять коммерческие технологии без барьеров, предусмотренных для гражданских пользователей.

В то же время компания Anthropic вступила в открытое противостояние с Пентагоном, отказавшись снять ограничения на использование своей модели Claude для массового внутреннего слежения и создания полностью автономного оружия. В ответ Министерство обороны США угрожало разорвать контракты, применить Закон об оборонном производстве (DPA) для принудительного снятия лимитов или даже официально признать американскую компанию "риском для цепи поставок".

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме