Руководитель направления робототехники и потребительского оборудования OpenAI Кейтлин Калиновски объявила об отставке. Причиной стала сделка компании с Министерством обороны США по использованию моделей искусственного интеллекта в секретных облачных сетях. Калиновски заявила, что решение было принято без достаточного обсуждения возможных рисков, передает Reuters.
По словам Калиновски, OpenAI не уделила достаточно времени обсуждению перед тем, как согласиться на развертывание своих моделей искусственного интеллекта в секретных облачных сетях Пентагона. Она подчеркнула, что использование таких технологий требует более широкой общественной дискуссии. Даже генеральный директор OpenAI Сэм Альтман через день после подписания соглашения назвал это решение "поспешным".
"ИИ играет важную роль в национальной безопасности. Но слежка за американцами без судебного надзора и смертельная автономия без разрешения человека — это вопросы, которые заслуживали большего обсуждения, чем они получили", — написала Калиновски в социальной сети X.
В следующей заметке Калиновски отметила, что проблема связана прежде всего с вопросом управления внутри компании. Она добавила: "Это слишком важные вопросы, чтобы спешить с соглашениями или объявлениями".
В OpenAI заявили, что соглашение с Пентагоном предусматривает дополнительные меры предосторожности по использованию технологий. Компания также повторила, что ее "красные линии" запрещают применение систем искусственного интеллекта для внутреннего наблюдения или создания автономного оружия.
"Мы осознаем, что люди имеют четкую позицию по этим вопросам, и будем продолжать вести диалог с работниками, правительством, гражданским обществом и общинами по всему миру", — говорится в заявлении компании для Reuters.
Калиновски присоединилась к OpenAI в 2024 году. До этого она работала в Meta Platforms, где руководила разработкой аппаратного обеспечения для технологий дополненной реальности.
В статье "Пентагон и Claude: что за кулисами конфликта?" Алексей Костенко анализирует беспрецедентное решение США внести компанию Anthropic в список рискованных поставщиков после ее отказа предоставить военным неограниченный доступ к модели Claude. На фоне этого противостояния исследования показывают, что современные модели ИИ в симуляциях ядерных кризисов склонны к быстрой эскалации, часто выбирая тактические ядерные удары как "рациональный" путь к победе.
