Діпфейки та ШІ у передвиборчій агітації в Індії: експерти побоюються, що технології можуть змінити вибори в усьому світі

Поділитися
Діпфейки та ШІ у передвиборчій агітації в Індії: експерти побоюються, що технології можуть змінити вибори в усьому світі ШІ може змінити вибори у всьому світі © Генерація в Runwayml на запит ZN.UA
За допомогою ШІ політики генерують компромат на опонентів.

19 квітня в Індії стартували вибори до нижньої палати парламенту, які можуть стати найбільшими у світі. Потенційно у голосуванні візьмуть участь 970 мільйонів людей – 12% від населення планети. Результати виборів стануть відомими 4 червня.

Чинного главу уряду Індії Нарендру Моді звинувачують у розпалюванні ворожнечі та посиленні репресій. Його критики стверджують, що перемога партії «Бхаратія джаната парті» на виборах втретє поспіль загрожує демократії у країні.

Але напружена ситуація на виборах пов'язана і з тим, що опоненти використовують для агітації та пропаганди штучний інтелект (ШІ). І експерти побоюються, що невдовзі такі технології можуть змінити вибори у всьому світі, повідомляє «Медуза».

Роль технологій у попередніх виборах

«Бхаратія джаната парті» (БДП) використала ШІ ще на попередніх виборах у 2014 році. Тоді за допомогою технологій створювали персоніфіковані звернення до виборців. З того часу технології міцно закріпилися у передвиборному арсеналі індійських політичних діячів.

Діпфейки стали ключовим елементом боротьби на виборах до законодавчих зборів Делі у 2020 році. Тоді в мережі з'явилися два згенеровані ШІ відео із керівником місцевого відділення БДП Маноджем Тіварі.

Тоді представники партії обґрунтували використання технологій тим, що не дискредитували конкурентів, а намагалися донести послання якомога ширшій аудиторії. Але обурення у громадськості викликало сам факт появи таких відео.

Але після парламентських виборів 2019 року сумніви щодо допустимості використання ШІ посилилися. Це було пов'язано з тим, що опоненти активно використовували соцмережі просування фейків про конкурентів. Тоді дослідники з Microsoft Research дійшли висновку, що кампанії майже всіх великих партій «включали елементи онлайн-дезінформації, брехня про своїх опонентів і пропаганду».

В останні тижні перед виборами 2019 року дослідники з Digital Forensic Research Lab виявили наплив ботів, які намагалися просувати хештеги та маніпулювати трафіком на користь деяких з учасників виборчого процесу. У Facebook також спостерігався наплив ботів, у соцмережі поширювалися фейкові фотографії та відео.

Чим відрізняються вибори 2024

Цього року маніпуляції та розповсюдження фейків вийшли на новий рівень. Це стало можливим завдяки розвитку технології генеративного штучного інтелекту.

«Генеративний ШІ сам собою не становить більше небезпеки, ніж боти. Однак тепер ми маємо справу і з ботами, і з генеративним ШІ», - заявила спеціалістка в галузі обчислювальних соціальних наук Кетлін Карлі.

Генеративний ШІ спрощує процес програмування ботів, дозволяє їм охопити більшу аудиторію та довше уникати блокування.

Пратик Вагре, виконавчий директор Фонду за свободу інтернету, що базується в Індії, зазначає, що технології ШІ ніяк не регулюються, тому вибори можуть перетворитися на «Дикий Захід».

Як політики маніпулюють за допомогою ШІ

Використання діпфейк-відео також стало досить поширеним, їх героями стають навіть зірки Боллівуду. За допомогою ШІ політики також генерують компромат на своїх опонентів.

Так, на початку березня в Instagram розповсюдили відео з Моді, стилізованим під Бхішму - одного з головних героїв індійського епосу "Махабхарата", земне втілення бога неба Дьяуса. Відео згенерував ШІ, воно мало уособлювати роль, яку чинному прем'єр-міністру Індії відводять його прихильники.

За даними Meta, доступ до яких отримало видання Al Jazeera, у період з 27 лютого по 21 березня обліковий запис Hokage Modi Sama, який займається агітацією за Моді в Instagram, розповсюдив понад 50 публікацій, що зображують главу уряду божеством, військовим або релігійним героєм.

Al Jazeera повідомляє, що ШІ для агітації користувався і один із головних конкурентів Моді, член Індійського національного конгресу Рахул Ганді. У Instagram та Facebook поширювалися зображення політика, який позує із фермерами та дітьми. У підписі до таких фото значилося, що Ганді "співчуває фермерам і обіцяє їм беззастережну підтримку".

Одним із головних героїв діпфейк-відео також став Моді. Так, напередодні початку голосування в WhatsApp поширилися відео з цифровими аватарами прем'єр-міністра, які нагадували про те, як багато влада зробила для мешканців Індії. При цьому Моді на відео звертався до виборця на ім'я.

З'являлися відео й з іншими членами правлячої партії. При цьому вони автоматично перекладалися однією з 10 поширених в Індії мов.

Девендра Сінгх Джадун, провідний індійський фахівець у галузі діпфейків, який спеціалізується на створенні реклам та сценах для боллівудських фільмів, розповів, що напередодні виборів до нього звернулися сотні політиків. Він стверджує, що більшість із них просили «про щось неетичне». Один із таких прикладів – створення телефонних розмов, у яких конкуренти нібито зізнаються у тому, що брали хабарі та порушували закон. Були прохання також помістити особу опонента на порнографічні фото.

Джандун розповів про те, що отримав 200 звернень, але він та його команда взялися лише за 14. Разом з тим, не всі фахівці з роботи з ШІ такі принципові.

Незадовго до виборів у мережі поширилося відео із зіркою Боллівуду Ааміром Ханом. Його цифровий двійник нагадував про обіцянки 10-річної давності, які не виконала БДП: зробити так, щоб на рахунку кожного індійця опинилося 1,5 мільйона рупій (приблизно 18 тисяч доларів). Наприкінці відео діфейк закликав індійців голосувати за опозиціонерів із Індійського національного конгресу.

Редактор інтернет-видання MediaNama, яке спеціалізується на аналізі цифрових медіа, Нікхіл Паква вважає, що в Індії такі технології можуть бути популярні через вшанування знаменитостей, що вкорінилося в країні.

Експерти зазначають, що партії використовують ШІ не лише для дискредитації опонентів, а й для просування своїх ідей. Але індійські політики звинувачують опонентів у спробах здобути переваги за допомогою технологій, але власні партії виправдовують. За їхніми словами, вони використовують ШІ просто тому, що це швидко і зручно, а не тому, що хочуть обдурити виборців або обмовити супротивників.

За словами індійського політолога та фахівця в галузі комунікацій Сагара Вишноя, «одна з очевидних переваг впровадження ШІ у передвиборчі кампанії — у тому, що він дозволяє помітно скоротити витрати, заощадити час та підвищити ефективність».

У попередні роки для взаємодії з електоратом партії покладалися на колцентри з великою кількістю співробітників та волонтерів. Але ШІ дозволяє скоротити витрати у цій галузі у кілька десятків разів, а також краще структурувати спілкування з виборцями. Наприклад, завдяки технологіям обдзвону опитування стали проводитися швидше — тепер за день партії отримують обсяг даних, на збір, які раніше йшов не один місяць.

Але противники використання ШІ у виборах переконані, що потенційних загроз від технологій більше ніж зручностей. Експерти звертають увагу на випадки, коли штучний інтелект міг забезпечити одній стороні несправедливу перевагу: наприклад, під час виборів до законодавчих зборів індійського штату Телінгана у 2023 році поширилося відео, на якому головний міністр штату К. Чандрашекар Рао та інші представники БДП закликали голосувати за своїх конкурентів із Конгресу.

При цьому негативні наслідки використання ШІ під час виборів вже помітні і в інших країнах. Так, минулого року у Бангладеш невідомі поширили фото у купальнику представниці опозиції Румін Фархани. Це викликало невдоволення консервативних виборців.

Жертвою діпфейків стала і президент Молдови Майя Санду, невідомі поширили відео, на якому вона закликала громадян згуртуватися навколо Партії соціалістів, відомої зв'язками із кремлівською «Єдіною Росієй».

Фахівці Microsoft дійшли висновку, що за створенням багатьох політичних діпфейків у різних країнах стоять компанії, пов'язані з владою Китаю. Імовірно, таким чином режим Сі Цзіньпіна намагається просувати своїх кандидатів. За даними Microsoft, у 2024 році Китай може займатися поширенням передвиборних фейків в Індії, Південній Кореї та США.

Моді запропонував помічати відео, створені за допомогою ШІ, особливими плашками, щоб не плутати виборців. Але поки що в Індії, як і в інших країнах, не існує механізмів, які б дозволили обмежувати потік відео та фотографій, згенерованих ШІ.

Нагадаємо, на ZN.UA вийшов цикл матеріалів про те, як активно програми штучного інтелекту захоплюють світ. Державна політика, закони, суди, юридична практика, міжнародні організації, вища освіта, медицина, культура і мистецтво, медіа — це сфери, які вже немислимі без використання ШІ. Які ризики та зворотний бік технологій? Чи мають держави контролювати цю сферу, і якщо так, то наскільки? 

Про це у першій та другій частинах статті «Яка державна політика підтримки розвитку та стримування небезпеки штучного інтелекту» розповідає кандидат юридичних наук, адвокат Сергій Козьяков.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі