Письменниця Сьюзан Зонтаг давно зрозуміла, що фотографії - ненадійні оповідачі. "Незважаючи на презумпцію правдивості, яка додає всім фотографіям авторитету та інтересу, - писала вона, - робота, яку роблять фотографи, не є загальним винятком із сумнівної торгівлі між мистецтвом і правдою". Але що, якщо навіть ця презумпція правдивості зникла?
Сьогодні існують тисячі таких, які реалістично виглядають і звучать, відео з подій, що ніколи не відбувалися. Їх згенерували за допомогою штучного інтелекту. Загальноприйнятим терміном для таких творів є "діпфейк" - з англійської deep - глибока, fake - підробка.
DT.UA описувало революцію у фальсифікаціях, що сталася з появою діпфейків у квітневому випуску газети. Колеги з The Economist в свіжому номері підняли питання про потенційний вплив цієї технології на наше майбутнє.
Deepfake - технологія, заснована на штучному інтелекті, яка використовується для виробництва або зміни відеоконтенту, цілком правдоподібно зображує те, чого насправді не було. В Україні придумали власний переклад цього терміну - "лицедурство", тобто щось середнє між лицедієм-притворщиком і дуростью-легковажністю. Щоб переконатися, наскільки правдоподібними здаються діпфейки, пропонуємо подивитися відео з "брифінгу Барака Обами", зроблене виданням De Telegraaf.
Як зазначає The Economist, інструменти для редагування мультимедіа існують протягом десятиліть - не треба навіть далеко ходити, подумайте про Photoshop. Небезпека діпфейків ж полягає в тому, що підробляти зображення, аудіо та відео ще ніколи не було так дешево. До появи цієї технології людині, яка захотіла створити реалістичне фальшиве відео з чиєюсь участю, був потрібен потужний комп'ютер і серйозні навички. Тепер же для цього достатньо мати кілька фотографій та доступ до інтернету.
Створення діпфейку, скажімо, про Барака Обаму, починається зі збору фотографій колишнього президента (це, до речі, означає, що знаменитостей легше підробити, ніж звичайних людей, оскільки в інтернеті міститься більше їхніх даних). Ці знімки потрібно завантажити у програму, яка встановить статистичний зв'язок між візуальним образом Обами і будь-яким аспектом, який ви хочете підробити. Якщо ви хочете змусити Обаму сказати те, що він ніколи не говорив, тоді вам потрібно направити своє ПО на вивчення зв'язків між конкретними словами і формою рота Обами, коли він їх вимовляє. Щоб прикріпити його обличчя до рухомого тіла іншої людини, необхідно поставити ПО завдання на вивчення зв'язків між особою і тілом.
Щоб зробити мультимедіа більш реалістичними, ви можете змусити програмне забезпечення конкурувати з власною копією: одна версія генерує діпфейки, а інша намагається їх розпізнати. Цей метод, відомий як генеративно-змагальні мережі (GAN), є найчистішою формою діпфейку, що створює абсолютно унікальні мультимедіа, а не просто поєднує існуючі файли.
Наслідки дешевих, широко поширених діпфейків, ймовірно, будуть глибокими, хоча і побачимо ми їх досить нескоро, вважає The Economist.
Багато експертів турбуються про можливий вплив, який правдоподібні, фальшиві кадри політиків можуть спричинити на громадянське суспільство - від подальшої втрати довіри до ЗМІ до можливого перекручування результатів виборів. Технологію можуть також використовувати у менш шкідливих цілях: наприклад, для залякування однокласників, створюючи їхні образи в незручних ситуаціях.
І неважко уявити, як маркетологи і рекламодавці зможуть застосувати інструменти створення фейків для автоматичного налаштування зображення в рекламних матеріалах, оптимізуючи їх для максимального залучення - моделі можуть перетворюватися на ідеали краси, які підлаштовуватися під індивідуальні вподобання кожного, підштовхуючи споживачів до покупки. Грань між реальністю та віртуальним світом стирається швидко, і все частіше ми вже не можемо довіряти очам і вухам.