Эксплейнер: что такое дипфейк

Поделиться
Эксплейнер: что такое дипфейк © tadviser.ru
Искажение информации с целью влияния на сознание масс практикуется давно и весьма успешно.

Писательница Сьюзан Зонтаг давно поняла, что фотографии - ненадежные рассказчики. "Несмотря на презумпцию правдивости, которая добавляет всем фотографиям авторитета и интереса, - писала она, - работа, которую делают фотографы, не является общим исключением из сомнительной торговли между искусством и правдой". Но что, если даже эта презумпция правдивости исчезла?

Сегодня существуют тысячи реалистично выглядящих и звучащих видео с событий, которые никогда не происходили. Их сгенерировали с помощью искусственного интеллекта. Общепринятым термином для таких произведений является "дипфейк" - с английского deep - глубокая, fake - подделка.

ZN.UA описывало революцию в фальсификациях, произошедшую с появлением дипфейков в апрельском выпуске газеты. Коллеги из The Economist в свежем номере подняли вопрос о потенциальном влиянии этой технологии на наше будущее.

Deepfake - технология, основанная на искусственном интеллекте используется для производства или изменения видеоконтента, вполне правдоподобно изображающего то, чего на самом деле не было. В Украине придумали собственный перевод этого термина - "лицедурство", то есть нечто среднее между лицедеем-притворщиком и дуростью-легкомысленностью. Чтобы убедиться, насколько правдоподобными кажутся дипфейки, предлагаем посмотреть "видео с брифинга Барака Обамы", сделанное изданием De Telegraaf.

Как отмечает The Economist, инструменты для редактирования мультимедиа существуют на протяжении десятилетий - не нужно даже далеко ходить, подумайте о Photoshop. Опасность дипфейков же состоит в том, что подделывать изображения, аудио и видео еще никогда не было так дешево. До появления этой технологии человеку, задавшегося целью создать реалистичное фальшивое видео с чьим-то участием, требовался мощный компьютер и серьезные навыки. Теперь же для этого достаточно иметь несколько фотографий и доступ к интернету.

Создание дипфейка, скажем, о Бараке Обаме, начинается со сбора фотографий бывшего президента (это, кстати, означает, что знаменитостей легче подделать, чем обычных людей, поскольку в интернете содержится больше их данных). Эти снимки нужно загрузить в программу, которая установит статистическую связь между визуальным обликом Обамы и любым его аспектом, который вы хотите подделать. Если вы хотите заставить Обаму сказать то, что он никогда не говорил, тогда вам нужно направить свое ПО на изучение связей между конкретными словами и формой рта Обамы, когда он их произносит. Чтобы прикрепить его лицо к движущемуся телу другого человека, необходимо поставить ПО задачу на изучение связей между лицом и телом.

Чтобы сделать мультимедиа более реалистичными, вы можете заставить программное обеспечение конкурировать с собственной копией: одна версия генерирует дипфейки, а другая пытается их распознать. Этот метод, известный как генеративно-состязательные сети (GAN), является самой чистой формой дипфейка, создающий совершенно уникальные мультимедиа, а не просто объединяющий существующие файлы.

Последствия дешевых, широко распространенных дипфейков, вероятно, будут глубокими, хотя и увидим мы их достаточно нескоро, считает The Economist.

Многие эксперты беспокоятся о возможном влиянии, которое правдоподобные, фальшивые кадры политиков могут оказать на гражданское общество - от дальнейшей потери доверия к СМИ до возможного искажения результатов выборов. Технологию могут также использовать в более безобидных целях: например, для запугивания одноклассников, создавая их образы в неловких ситуациях.

И нетрудно представить, как маркетологи и рекламодатели смогут применить инструменты создания фейков для автоматической настройки изображения в рекламных материалах, оптимизируя их для максимального вовлечения - лица моделей могут превращаться в идеалы красоты, которые подстраиваться под индивидуальные предпочтения каждого, подталкивая потребителей к покупке. Грань между реальностью и виртуальным миром стирается быстро, и все чаще мы уже не можем доверять глазам и ушам.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме