Экстремистские и террористические группировки все активнее используют генеративный искусственный интеллект для распространения пропаганды. Они клонируют голоса, автоматически переводят и синтезируют речь для адаптации идеологических материалов на разных языках. Эксперты предостерегают, что эти технологии существенно усиливают охват и эффективность радикальных месседжей, передает The Guardian.
Как отмечают исследователи, инструменты генерации голоса и перевода стали новым ресурсом для экстремистских движений — от неонацистских групп до исламистских организаций. Они позволяют воспроизводить речи известных идеологов и распространять их в удобном мультимедийном формате.
"Внедрение террористами и экстремистами перевода на основе искусственного интеллекта знаменует собой масштабную эволюцию в стратегиях цифровой пропаганды", — заявил старший аналитик Tech Against Terrorism и научный сотрудник Центра Суфана Лукас Веббер. Он добавил, что такие инструменты позволяют сохранять тон, эмоции и идеологическую интенсивность контента на нескольких языках.
Веббер отмечает, что ранее радикальные сети полагались на человеческих переводчиков или примитивный машинный перевод. Однако сейчас, по его словам, "с развитием передовых генеративных инструментов искусственного интеллекта, эти группы способны создавать бесшовные, контекстуально точные переводы".
Среди неонацистских ультраправых движений особенно распространенным стало клонирование голоса для воспроизведения речей Адольфа Гитлера на английском языке. Некоторые из таких видео, опубликованные в X, Instagram и TikTok, собрали десятки миллионов просмотров.
Согласно исследованию Глобальной сети по вопросам экстремизма и технологий (GNet), экстремисты используют сервисы вроде ElevenLabs. Они загружают архивные речи времен Третьего рейха для создания англоязычных аудиоверсий с имитацией голоса Гитлера.
Неонацистские акселерационистские группы также применяют эти инструменты для обновления собственных гипернасильственных материалов. В конце ноября, в частности, создали аудиокнигу из пособия по повстанческой борьбе американского неонациста Джеймса Мэнсона, под названием "Осада".
"В течение последних нескольких месяцев я участвовал в создании аудиокниги "Осада" Джеймса Мейсона. Используя собственную голосовую модель Мейсона, я воспроизвел каждую рассылку и большинство добавленных газетных вырезок, как в оригинальных опубликованных рассылках", — сообщил неонацистский инфлюенсер, который распространяет контент в X и Telegram.
Аналитик Проекта борьбы с экстремизмом Джошуа Фишер-Берч предостерегает, что именно культовый статус "Осады" делает ее особенно опасной. По его словам, пособие "пропагандирует насилие одиноких лиц и является обязательным для чтения несколькими неонацистскими группами, которые открыто поддерживают терроризм".
Происламские медиа в зашифрованных сетях также активно используют искусственный интеллект для преобразования текстовых материалов в аудио. По словам Веббера, это позволяет быстро трансформировать пропаганду в "захватывающие мультимедийные нарративы".
Джихадистские группировки применяют ИИ-перевод для адаптации идеологических материалов с арабского языка для глобальной аудитории. Ранее такую роль выполнял лично Анвар аль-Авлаки, чей голос, по оценкам ЦРУ и ФБР, был ключевым фактором влияния "Аль-Каиды".
На платформе Rocket.Chat, которую активно использует "Исламское государство", в октябре появилось видео с японскими субтитрами, созданными с помощью ИИ. Как писал происламский пользователь, "японский язык было бы чрезвычайно трудно перевести, сохраняя при этом его красноречие". Он отметил, что использует искусственный интеллект только "за некоторыми исключениями в отношении аудио".
Сейчас не только "Исламское государство", но и широкий спектр других радикальных группировок активно пользуются бесплатными инструментами ИИ, такими как ChatGPT. В частности, организация The Base и связанные с ней группы еще с 2023 года используют эти технологии как для создания визуального контента, так и для оптимизации планирования и разведки.
Ранее исследователи обнаружили, что популярные чат-боты регулярно используют российские пропагандистские ресурсы как источники информации о войне в Украине. Около 20% ответов искусственного интеллекта, в частности от ChatGPT и Grok, содержали ссылки на связанные с Кремлем медиа.
