Політика повинна переконувати, але їй на п’яти завжди наступала пропаганда. Агітатори перекручують, перебільшують і вигадують. Вони транслюють брехню і роблять це будь-якими доступними засобами.
Колись теорії змови проти вакцин поширювалися за допомогою брошур, а не подкастів. За століття до COVID-19 противники масок в епоху іспанського грипу теж проводили дезінформаційну кампанію. Вони надсилали фейкові повідомлення від генерального хірурга через телеграми. Оскільки люди не ангели, вибори ніколи не були вільні від брехні та помилкових переконань.
«Але в той час, коли світ готується до низки голосувань у 2024 році, дещо нове викликає велике занепокоєння. У минулому дезінформація завжди створювалася людьми. Досягнення в галузі генеративного штучного інтелекту (ШІ) з моделями, які можуть видавати складні есе і створювати реалістичні зображення на основі текстових підказок, уможливлюють синтетичну пропаганду», - пише The Economist.
Побоювання полягає в тому, що дезінформаційні кампанії можуть отримати надпотужний заряд у 2024 році, саме тоді, коли країни з сукупним населенням близько 4 мільярдів людей, включаючи США, Велику Британію, Індію, Індонезію, Мексику і Тайвань, готуються голосувати. Наскільки варто хвилюватися цим країнам?
Важливо чітко розуміти, що саме змінюють і чого не змінюють такі інструменти генерації текстів, як ChatGPT. Ще до їх появи дезінформація вже була проблемою в демократичних країнах. Їдке уявлення про те, що президентські вибори в США у 2020 році були сфальсифіковані, привело протестувальників до Капітолію 6 січня. Але його поширювали Дональд Трамп, республіканські еліти і консервативні ЗМІ, використовуючи традиційні засоби. Активісти BJP в Індії поширювали плітки через повідомлення у WhatsApp. Пропагандисти Комуністичної партії Китаю передають тези до Тайваню через, здавалося б, легітимні ЗМІ. Усе це робиться без використання інструментів генеративного ШІ.
«Що можуть змінити генератори текстів у 2024 році? По-перше, кількість дезінформації: якщо обсяг нісенітниці помножити на 1000 або 100 000, це може переконати людей проголосувати по-іншому. Другий пункт стосується якості. Гіперреалістичні фейки можуть вплинути на виборців ще до того, як фальшиві аудіо-, фото- та відеоматеріали будуть спростовані», - пише The Economist.
Третє занепокоєння - це мікротаргетинг. За допомогою ШІ виборці можуть бути завалені високо персоналізованою пропагандою у великих масштабах. Мережі пропагандистських ботів буде важче виявити, ніж нинішні дезінформаційні зусилля. Довіра виборців до своїх співгромадян, яка в Америці знижувалася десятиліттями, може постраждати, оскільки люди почали сумніватися в усьому.
Це викликає занепокоєння, але є підстави вважати, що ШІ не зруйнує 2500-річний експеримент людства з демократією.
«Багато людей думають, що інші більш довірливі, ніж вони самі. Насправді виборців важко переконати, особливо в таких важливих політичних питаннях, як, наприклад, кого вони хочуть бачити президентом», - йдеться в статті.
Багатомільярдна індустрія передвиборчих кампаній в Америці, яка використовує людей для переконання виборців, може спричинити лише незначні зміни в їхній поведінці.
Інструменти для створення правдоподібних фейкових зображень і текстів існують уже кілька десятиліть. Генеративний штучний інтелект може бути технологією, що заощаджує робочу силу для ферм інтернет-тролів. Але навряд чи такі ферми страждали від виробничих обмежень у продукуванні дезінформації. Нові алгоритми генерації зображень вражають, але без людського контролю вони все ще схильні створювати зображення людей з шістьма пальцями на кожній руці, що робить виробництво персоналізованих глибоких фейків поки що віддаленою перспективою.
«Навіть якби ця тактика з використанням штучного інтелекту виявилася ефективною, її незабаром взяли б на озброєння багато зацікавлених сторін. Кумулятивний ефект цих операцій впливу зробив би соціальні мережі ще більш какофонічними і непридатними для використання. Важко довести, що недовіра перетворюється на систематичну перевагу однієї сторони над іншою», - йдеться в статті.
Платформи соціальних медіа, де поширюється дезінформація, і фірми, що займаються штучним інтелектом, кажуть, що вони приділяють увагу ризикам. Компанія OpenAI, яка розробила Chatgpt, заявляє, що буде стежити за використанням, щоб спробувати виявити операції політичного впливу. Високотехнологічні платформи, яких критикували за поширення дезінформації під час виборів 2016 року і за те, що вони видалили занадто багато інформації у 2020 році, стали краще виявляти підозрілі сторінки. Хоча вони стали не надто охоче перевіряти правдивість контенту, створеного реальними людьми.
Дехто в США закликає до системи екстремального регулювання на кшталт китайської. Там алгоритми штучного інтелекту повинні бути зареєстровані в державному органі і якимось чином втілювати основні соціалістичні цінності. Такий жорсткий контроль зруйнував би перевагу, яку Америка має в ШІ-інноваціях.
Технологічний детермінізм, який списує всі слабкості людей на інструменти, якими вони користуються, здається спокусливим. Але він також хибний. Хоч важливо пам'ятати про потенціал генеративних ШІ-технологій для підриву демократії, паніка через це здається невиправданою. До технологічного прогресу останніх двох років люди були цілком здатні передавати один одному всілякі деструктивні і жахливі ідеї.
«Американська президентська кампанія 2024 року буде затьмарена дезінформацією про верховенство права і чесність виборів. Але її родоначальником буде не щось новомодне на кшталт Chatgpt. Це буде Дональд Трамп», - прогнозує The Economist.