Діпфейки стали настільки реалістичні, що імітують навіть серцебиття

Поділитися
Діпфейки стали настільки реалістичні, що імітують навіть серцебиття © Getty Images
Штучний інтелект може переносити цей показник із справжніх відео.

Сучасні діпфейки імітують серцебиття, а це один з найважливіших критеріїв, за допомогою яких їх вдавалося розрізняти.  Це може бути результатом все більшої точності, із якою штучний інтелект (ШІ) компілює підробки на основі реальних відео, пише IFLScience.  

Діпфейки – це відео, згенеровані ШІ, які демонструють ніби-то реальних людей у місцях і під час подій, яких не було насправді. Технологія використовується, наприклад, в TikTok для створення жартівливих роликів, де користувачі постають в образі тварин або в кумедних ситуаціях. Водночас зловмисники використовують цей інструмент для створення компрометуючих відео. Наприклад, на початку повномасштабного вторгнення росіяни поширювали діпфейк із президентом Володимиром Зеленським, який нібито оголошував капітуляцію. Але обман був швидко розкритим. 

Для ефективного виявлення діпфейків розробники створили детектори - програмне забезпечення, яке ефективно розпізнавало відео, згенероване ШІ. Одним з таких розробників є професор Берлінського університету Гумбольдта Петер Айзерт. Він виступив із заявою про нові виклики, які постали перед викривачами діпфейків.

«…Нещодавні високоякісні відео з діпфейками можуть мати реалістичне серцебиття та незначні зміни кольору обличчя, що значно ускладнює їх виявлення», – зазначив професор.

Серцебиття – один з основних критеріїв, на якому базувалося це розпізнання. Детектори використовують той самий принцип, що і пульсоксиметри: пропускання світла через шкіру та кровоносні судини. Цей принцип ефективний навіть при огляді пацієнтів через вебкамери і в такому випадку називається фотоплетизмографія (rPPP). 

Детектори використовують rPPP при аналізі відео. Масштабні тестування фахівців Берлінського університету Гумбольдта підтвердили, що цей підхід є ефективним. Але нещодавно з’явилися діпфейки, які можуть обманути його. 

ШІ-експерти висувають гіпотезу, що під час створення фальшивих відео штучний інтелект більш якісно копіює тіло людини. Це може бути зроблено як спеціально для більшої правдоподібності, так і випадково. Прецедент насторожує, вважає Петер Айзерт. Але є й надія.

 «Наші експерименти показали, що сучасні діпфейки можуть показувати реалістичне серцебиття, але не здатні зімітувати фізіологічно реалістичні варіації кровотоку обличчя в просторі та часі», – зазначив професор.

Він додав, що саме цей елемент розробники намагатимуться включити в роботу детекторів.

З часу появи діпфейків постійно вдосконалюється і система розпізнання. Окрім серцебиття, алгоритми також розпізнавали фальшиві фото і відео, аналізуючи відображення в очах. Інструмент показав ефективність 94% при розпізнанні підроблених фотографій.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі