UA / RU
Поддержать ZN.ua

Дипфейки стали настолько реалистичны, что имитируют даже сердцебиение

Искусственный интеллект может переносить этот показатель из настоящих видео.

Современные дипфейки имитируют сердцебиение, а это один из важнейших критериев, с помощью которых их удавалось различать. Это может быть результатом все большей точности, с которой искусственный интеллект (ИИ) компилирует подделки на основе реальных видео, пишет IFLScience.

Дипфейки – это видео, сгенерированные ИИ, демонстрирующие якобы реальных людей в местах и во время событий, которых не было на самом деле. Технология используется, например, в TikTok для создания шутливых роликов, где пользователи предстают в образе животных или в забавных ситуациях. В то же время злоумышленники используют этот инструмент для создания компрометирующих видео. Например, в начале полномасштабного вторжения россияне распространяли дипфейк с якобы объявлявшим капитуляцию президентом Владимиром Зеленским. Но обман был быстро раскрыт.

Читайте также: Россияне использовали дипфейк, чтобы показать «Буданова в плену»

Для эффективного обнаружения дипфейков разработчики создали детекторы – программное обеспечение, эффективно распознающее видео, сгенерированное ИИ. Один из таких разработчиков – профессор Берлинского университета Гумбольдта Петер Айзерт. Он выступил с заявлением о новых вызовах, представших перед обличителями дипфейков.

«…Недавние высококачественные видео с дипфейками могут иметь реалистичное сердцебиение и незначительные изменения цвета лица, что значительно усложняет их обнаружение», – отметил он.

Сердцебиение – один из основных критериев, на котором базировалось это распознавание. Детекторы используют тот же принцип, что и пульсоксиметры: пропускание света через кожу и кровеносные сосуды. Этот принцип эффективен даже при осмотре пациентов через веб-камеры и в таком случае называется фотоплетизмографией (rPPP).

Читайте также: Разработчики создали универсальный способ обмана детекторов дипфейк-видео

Детекторы используют rPPP при анализе видео. Масштабные тестирования специалистов Берлинского университета Гумбольдта подтвердили, что этот подход эффективен. Но недавно появились дипфейки, которые могут обмануть его.

ИИ-эксперты выдвигают гипотезу, что при создании фальшивых видео искусственный интеллект более качественно копирует тело человека. Это может быть сделано как специально для большего правдоподобия, так и случайно. Прецедент настораживает, считает Петер Айзерт. Но есть и надежда.

«Наши эксперименты показали, что современные дипфейки могут показывать реалистическое сердцебиение, но не способны симитировать физиологически реалистичные вариации кровотока лица в пространстве и времени», - отметил профессор. Он добавил, что именно этот элемент разработчики постараются включить в работу детекторов.

С момента появления дипфейков постоянно совершенствуется и система распознавания. Помимо сердцебиения алгоритмы также распознавали фальшивые фото и видео, анализируя отражение в глазах. Инструмент показал эффективность в 94% при распознавании поддельных фотографий.