UA / RU
Підтримати ZN.ua

OpenAI: російські та ізраїльські групи використовували інструменти ШІ для поширення дезінформації

Мережі в Китаї та Ірані також використовували моделі ШІ для створення та публікації дезінформації, однак кампанії не охопили широку аудиторію.

У четвер OpenAI опублікувала свій перший звіт про те, як її інструменти штучного інтелекту використовуються для таємних операцій впливу, пише The Guardian. Зі звіту випливає, що компанія зірвала кампанії з дезінформації, які походили з Росії, Китаю, Ізраїлю та Ірану.

Зловмисники використовували генеративні моделі штучного інтелекту компанії для створення та публікації пропагандистського контенту на платформах соціальних мереж, а також для перекладу їх вмісту різними мовами. Згідно зі звітом, жодна з кампаній не отримала популярності та не охопила широку аудиторію.

Через швидкий розвиток галузі генеративного штучного інтелекту  серед дослідників і законодавців виникло широке занепокоєння щодо його потенціалу для збільшення кількості та якості онлайн-дезінформації. Компанії штучного інтелекту, такі як OpenAI, яка виробляє ChatGPT, зі змінним успіхом намагаються  вгамувати занепокоєння та поставити обмеження на свою технологію.

Читайте також: The Economist: Як штучний інтелект вплине на вибори у 2024 році?

Звіт OpenAI,  що складається з 39 сторінок, є одним із найдетальніших звітів компанії штучного інтелекту про використання її програмного забезпечення для пропаганди. OpenAI стверджує, що його фахівці знайшли та заборонили облікові записи, пов’язані з п’ятьма таємними операціями впливу протягом останніх трьох місяців, які проводилися як державними, так і приватними особами.

У Росії дві операції створювали та поширювали контент із критикою США, України та кількох країн Балтії. Одна з операцій використовувала модель OpenAI для налагодження коду та створення бота, який робив публікації у Telegram. Операція впливу Китаю створила текст англійською, китайською, японською та корейською мовами, який потім було опублікувано в Twitter і Medium.

Читайте також: На захист від махінацій з ШІ уряд Британії виділяє $11 млн

Іранські актори генерували статті з нападками на США та Ізраїль, які вони перекладали англійською та французькою мовами. Ізраїльська політична компанія під назвою Stoic керувала мережею фейкових облікових записів у соціальних мережах, які створювали низку контенту, включно з повідомленнями, в яких протести американських студентів проти війни Ізраїлю в Газі видавали за антисемітські.

Кілька заборонених OpenAI на своїй платформі розповсюджувачів дезінформації вже є відомі як фахівцям, так і правоохоронцям. У березні Міністерство фінансів США наклало санкції на двох росіян, які нібито стояли за однією з кампаній, виявлених OpenAI, а Meta цього року також забанила Stoic на своїй платформі  за порушення політики.

У звіті підкреслюється, що генеративний штучний інтелект використовується у кампаніях з дезінформації як засіб покращення певних аспектів створення контенту, наприклад створення більш переконливих повідомлень іноземною мовою, але це не єдиний інструмент пропаганди.

«Усі ці операції певною мірою використовували штучний інтелект, але жодна не використовувала його виключно. Натомість створений штучним інтелектом матеріал був лише одним із багатьох типів контенту, який вони публікували, поряд із більш традиційними форматами, такими як написані вручну тексти або меми, скопійовані з Інтернету», — йдеться у звіті.

Хоча жодна з кампаній не дала помітного впливу, використання ними технології показує, як зловмисники виявляють, що генеративний ШІ дозволяє їм збільшити виробництво пропаганди. Написання, переклад і публікацію контенту  за допомогою інструментів штучного інтелекту тепер можна здійснювати більш ефективно.

Читайте також: У ЄС зросла кількість кібератак, до багатьох із них причетна РФ 

Упродовж останнього року зловмисники використовували генеративний ШІ в країнах по всьому світу, щоб намагатися вплинути на політику та громадську думку.  Створені штучним інтелектом дипфейки, аудіо, зображення і текстові кампанії використовувалися для зриву виборчих кампаній, що призвело до посилення тиску на такі компанії, як OpenAI, з метою обмежити використання їхніх інструментів.

OpenAI заявила, що планує регулярно публікувати подібні звіти про таємні операції впливу, а також видаляти облікові записи, які порушують її політику.