В четверг OpenAI опубликовала свой первый отчет о том, как инструменты искусственного интеллекта используются для тайных операций влияния, пишет The Guardian. Из отчета следует, что компания сорвала кампании по дезинформации, организованные из России, Китая, Израиля и Ирана.
Злоумышленники использовали генеративные модели искусственного интеллекта компании для создания и публикации пропагандистского контента на платформах социальных сетей, а также для перевода их содержимого на разные языки. Согласно отчету, ни одна из кампаний не получила популярности и не охватила широкую аудиторию.
Из-за быстрого развития отрасли генеративного искусственного интеллекта, среди исследователей и законодателей возникла широкая обеспокоенность его потенциалом для увеличения количества и качества онлайн-дезинформации. Компании искусственного интеллекта, такие как OpenAI, производящая ChatGPT, с переменным успехом пытаются унять беспокойство и поставить ограничения на свою технологию.
Отчет OpenAI, состоящий из 39 страниц, является одним из наиболее подробных отчетов компании искусственного интеллекта об использовании ее программного обеспечения для пропаганды. OpenAI утверждает, что его специалисты нашли и заблокировали учетные записи, связанные с пятью тайными операциями влияния за последние три месяца, которые проводились как государственными, так и частными лицами.
В России две операции создавали и распространяли контент с критикой США, Украины и стран Балтии. Одна из операций использовала модель OpenAI для настройки кода и создания бота, который делал публикации в Telegram. Операция влияния Китая создала текст на английском, китайском, японском и корейском языках, который затем был опубликован в Twitter и Medium.
Иранские акторы генерировали статьи с нападками на США и Израиль, которые они переводили на английский и французский языки. Израильская политическая компания под названием Stoic управляла сетью фейковых учетных записей в социальных сетях, которые создавали ряд контента, включая сообщения, в которых протесты американских студентов против войны Израиля в Газе выдавали за антисемитские.
Несколько запрещенных OpenAI на своей платформе распространителей дезинформации уже известны как специалистам, так и правоохранителям. В марте Министерство финансов США наложило санкции на двух россиян, якобы стоящих за одной из кампаний, обнаруженных OpenAI, а Meta в этом году также забанила Stoic на своей платформе за нарушение политики.
В отчете подчеркивается, что генеративный искусственный интеллект используется в дезинформационных кампаниях как средство улучшения определенных аспектов создания контента, например создание более убедительных сообщений на иностранном языке, но это не единственный инструмент пропаганды.
«Все эти операции в той или иной степени использовали искусственный интеллект, но ни одна не использовала исключительно его. Созданный искусственным интеллектом материал был лишь одним из многих типов контента, который они публиковали, наряду с более традиционными форматами, такими как написанные вручную тексты или мемы, скопированные из Интернета», — говорится в отчете.
Хотя ни одна из кампаний не оказала заметного влияния, использование ими технологии показывает, как злоумышленники обнаруживают, что генеративный ИИ позволяет увеличить производство пропаганды. Написание, перевод и публикацию контента с помощью инструментов искусственного интеллекта теперь можно производить более эффективно.
За последний год злоумышленники использовали генеративный ИИ в странах по всему миру, чтобы пытаться повлиять на политику и общественное мнение. Созданные искусственным интеллектом дипфейки, аудио, изображения и текстовые кампании использовались для срыва избирательных кампаний, что привело к усилению давления на такие компании как OpenAI с целью ограничить использование их инструментов.
OpenAI заявила, что планирует регулярно публиковать подобные отчеты о тайных операциях влияния, а также удалять учетные записи, нарушающие ее политику.