UA / RU
Поддержать ZN.ua

OpenAI: российские и израильские группы использовали инструменты ИИ для распространения дезинформации

Сети в Китае и Иране также использовали модели ИИ для создания и публикации дезинформации, однако кампании не охватили широкую аудиторию.

В четверг OpenAI опубликовала свой первый отчет о том, как инструменты искусственного интеллекта используются для тайных операций влияния, пишет The Guardian. Из отчета следует, что компания сорвала кампании по дезинформации, организованные из России, Китая, Израиля и Ирана.

Злоумышленники использовали генеративные модели искусственного интеллекта компании для создания и публикации пропагандистского контента на платформах социальных сетей, а также для перевода их содержимого на разные языки. Согласно отчету, ни одна из кампаний не получила популярности и не охватила широкую аудиторию.

Из-за быстрого развития отрасли генеративного искусственного интеллекта, среди исследователей и законодателей возникла широкая обеспокоенность его потенциалом для увеличения количества и качества онлайн-дезинформации. Компании искусственного интеллекта, такие как OpenAI, производящая ChatGPT, с переменным успехом пытаются унять беспокойство и поставить ограничения на свою технологию.

Читайте также: The Economist: Как искусственный интеллект повлияет на выборы в 2024 году?

Отчет OpenAI, состоящий из 39 страниц, является одним из наиболее подробных отчетов компании искусственного интеллекта об использовании ее программного обеспечения для пропаганды. OpenAI утверждает, что его специалисты нашли и заблокировали учетные записи, связанные с пятью тайными операциями влияния за последние три месяца, которые проводились как государственными, так и частными лицами.

В России две операции создавали и распространяли контент с критикой США, Украины и стран Балтии. Одна из операций использовала модель OpenAI для настройки кода и создания бота, который делал публикации в Telegram. Операция влияния Китая создала текст на английском, китайском, японском и корейском языках, который затем был опубликован в Twitter и Medium.

Читайте также: На защиту от махинаций с ИИ правительство Британии выделяет $11 млн

Иранские акторы генерировали статьи с нападками на США и Израиль, которые они переводили на английский и французский языки. Израильская политическая компания под названием Stoic управляла сетью фейковых учетных записей в социальных сетях, которые создавали ряд контента, включая сообщения, в которых протесты американских студентов против войны Израиля в Газе выдавали за антисемитские.

Несколько запрещенных OpenAI на своей платформе распространителей дезинформации уже известны как специалистам, так и правоохранителям. В марте Министерство финансов США наложило санкции на двух россиян, якобы стоящих за одной из кампаний, обнаруженных OpenAI, а Meta в этом году также забанила Stoic на своей платформе за нарушение политики.

В отчете подчеркивается, что генеративный искусственный интеллект используется в дезинформационных кампаниях как средство улучшения определенных аспектов создания контента, например создание более убедительных сообщений на иностранном языке, но это не единственный инструмент пропаганды.

«Все эти операции в той или иной степени использовали искусственный интеллект, но ни одна не использовала исключительно его. Созданный искусственным интеллектом материал был лишь одним из многих типов контента, который они публиковали, наряду с более традиционными форматами, такими как написанные вручную тексты или мемы, скопированные из Интернета», — говорится в отчете.

Хотя ни одна из кампаний не оказала заметного влияния, использование ими технологии показывает, как злоумышленники обнаруживают, что генеративный ИИ позволяет увеличить производство пропаганды. Написание, перевод и публикацию контента с помощью инструментов искусственного интеллекта теперь можно производить более эффективно.

Читайте также: В ЕС возросло количество кибератак, ко многим из них причастна РФ

За последний год злоумышленники использовали генеративный ИИ в странах по всему миру, чтобы пытаться повлиять на политику и общественное мнение. Созданные искусственным интеллектом дипфейки, аудио, изображения и текстовые кампании использовались для срыва избирательных кампаний, что привело к усилению давления на такие компании как OpenAI с целью ограничить использование их инструментов.

OpenAI заявила, что планирует регулярно публиковать подобные отчеты о тайных операциях влияния, а также удалять учетные записи, нарушающие ее политику.