OpenAI: российские и израильские группы использовали инструменты ИИ для распространения дезинформации

Поделиться
Сети в Китае и Иране также использовали модели ИИ для создания и публикации дезинформации, однако кампании не охватили широкую аудиторию.

В четверг OpenAI опубликовала свой первый отчет о том, как инструменты искусственного интеллекта используются для тайных операций влияния, пишет The Guardian. Из отчета следует, что компания сорвала кампании по дезинформации, организованные из России, Китая, Израиля и Ирана.

Злоумышленники использовали генеративные модели искусственного интеллекта компании для создания и публикации пропагандистского контента на платформах социальных сетей, а также для перевода их содержимого на разные языки. Согласно отчету, ни одна из кампаний не получила популярности и не охватила широкую аудиторию.

Из-за быстрого развития отрасли генеративного искусственного интеллекта, среди исследователей и законодателей возникла широкая обеспокоенность его потенциалом для увеличения количества и качества онлайн-дезинформации. Компании искусственного интеллекта, такие как OpenAI, производящая ChatGPT, с переменным успехом пытаются унять беспокойство и поставить ограничения на свою технологию.

Отчет OpenAI, состоящий из 39 страниц, является одним из наиболее подробных отчетов компании искусственного интеллекта об использовании ее программного обеспечения для пропаганды. OpenAI утверждает, что его специалисты нашли и заблокировали учетные записи, связанные с пятью тайными операциями влияния за последние три месяца, которые проводились как государственными, так и частными лицами.

В России две операции создавали и распространяли контент с критикой США, Украины и стран Балтии. Одна из операций использовала модель OpenAI для настройки кода и создания бота, который делал публикации в Telegram. Операция влияния Китая создала текст на английском, китайском, японском и корейском языках, который затем был опубликован в Twitter и Medium.

Иранские акторы генерировали статьи с нападками на США и Израиль, которые они переводили на английский и французский языки. Израильская политическая компания под названием Stoic управляла сетью фейковых учетных записей в социальных сетях, которые создавали ряд контента, включая сообщения, в которых протесты американских студентов против войны Израиля в Газе выдавали за антисемитские.

Несколько запрещенных OpenAI на своей платформе распространителей дезинформации уже известны как специалистам, так и правоохранителям. В марте Министерство финансов США наложило санкции на двух россиян, якобы стоящих за одной из кампаний, обнаруженных OpenAI, а Meta в этом году также забанила Stoic на своей платформе за нарушение политики.

В отчете подчеркивается, что генеративный искусственный интеллект используется в дезинформационных кампаниях как средство улучшения определенных аспектов создания контента, например создание более убедительных сообщений на иностранном языке, но это не единственный инструмент пропаганды.

«Все эти операции в той или иной степени использовали искусственный интеллект, но ни одна не использовала исключительно его. Созданный искусственным интеллектом материал был лишь одним из многих типов контента, который они публиковали, наряду с более традиционными форматами, такими как написанные вручную тексты или мемы, скопированные из Интернета», — говорится в отчете.

Хотя ни одна из кампаний не оказала заметного влияния, использование ими технологии показывает, как злоумышленники обнаруживают, что генеративный ИИ позволяет увеличить производство пропаганды. Написание, перевод и публикацию контента с помощью инструментов искусственного интеллекта теперь можно производить более эффективно.

За последний год злоумышленники использовали генеративный ИИ в странах по всему миру, чтобы пытаться повлиять на политику и общественное мнение. Созданные искусственным интеллектом дипфейки, аудио, изображения и текстовые кампании использовались для срыва избирательных кампаний, что привело к усилению давления на такие компании как OpenAI с целью ограничить использование их инструментов.

OpenAI заявила, что планирует регулярно публиковать подобные отчеты о тайных операциях влияния, а также удалять учетные записи, нарушающие ее политику.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме