Как определить «фальшивое» видео с заменой лица

Недавно Reddit снова делал новости с помощью subreddit, в котором люди используют инструмент машинного обучения под названием «Deep Fake», чтобы автоматически заменять лицо одного человека другим в видео. Очевидно, так как это Интернет, люди используют его для двух вещей: поддельные знаменитости порно и вставив Николас Кейджа в случайные фильмы.

В то время как обмен чьего-либо лица на фотографии всегда был относительно легким, замена чьего-либо лица на видео раньше была трудоемкой и трудоемкой. До сих пор это в основном делалось студиями VFX для больших бюджетных голливудских фильмов, где лицо актера заменено на дублер. Но теперь, с Deep Fake, любой, у кого есть компьютер, может сделать это быстро и автоматически.

Прежде чем идти дальше, вы должны знать, как выглядит Deep Fake. Посмотрите видео SFW, представленное ниже, которое представляет собой подборку различных свопов с участием знаменитостей, в основном с участием Ник Кейдж.

Программное обеспечение Deep Fake работает с использованием машинного обучения. Сначала тренируется с целевым лицом. Искаженные изображения цели запускаются по алгоритму, и он учится исправлять их, чтобы они напоминали неизменное лицо цели. Когда алгоритм затем передает изображения другого человека, он предполагает, что они являются искаженными изображениями цели, и пытается исправить их. Для получения видео программа Deep Fake работает с каждым кадром индивидуально.

Причина, по которой Deep Fakes в основном задействовали только актеров, заключается в том, что есть много видеороликов о них, доступных с разных точек зрения, что делает тренировку более эффективной (Николас Кейдж имеет 91 действующий кредит на IMDB). Однако, учитывая количество фотографий и видео, которые люди публикуют в Интернете, и что вам действительно нужно всего около 500 изображений для обучения алгоритму, нет никаких причин, по которым обычные люди тоже не могут быть нацелены, хотя, вероятно, с меньшим успехом.

Как определить глубокую подделку

Прямо сейчас, Deep Fakes довольно легко обнаружить, но с развитием технологий все сложнее. Вот некоторые из бесплатных подарков.

Странно выглядящие лица. Во многих Deep Fakes лица выглядят странно. Функции не соответствуют друг другу, и все выглядит немного восковым, как на рисунке ниже. Если все остальное выглядит нормально, но лицо кажется странным, это, вероятно, Deep Fake.

Мерцающие . Общей чертой плохих видео Deep Fake является мерцающее лицо, и иногда появляются оригинальные черты лица. Это обычно более очевидно на краях лица или когда что-то проходит перед ним. Если происходит странное мерцание, вы смотрите на Deep Fake.

Разные тела. Глубокие подделки — это только смены лица. Большинство людей пытаются получить хороший матч с телом, но это не всегда возможно. Если человек кажется заметно тяжелее, светлее, выше, ниже или имеет татуировки, которых у них нет в реальной жизни (или у них нет татуировок, которые есть в реальной жизни), есть большая вероятность, что это подделка. Вы можете увидеть действительно очевидный пример ниже, где лицо Патрика Стюарта было изменено на J.K. Симмонс в кадре из фильма «Хлыст». Симмонс значительно меньше, чем Стюарт, так что это выглядит странно.

Короткие клипы. Прямо сейчас, даже когда программное обеспечение Deep Fake отлично работает и создает практически неразличимый обмен лицами, оно может делать это только в течение короткого периода времени. Вскоре одна из проблем выше начнет происходить. Вот почему большинство клипов Deep Fake, которыми обмениваются люди, имеют длину всего пару секунд, остальные кадры непригодны для использования. Если вам показали очень короткий клип, в котором знаменитости что-то делают, и нет веской причины, по которой он так короток, это признак того, что это Deep Fake.

Нет звука или плохая синхронизация губ. Программное обеспечение Deep Fake регулирует только черты лица; это волшебным образом не заставляет одного человека походить на другого. Если в клипе нет звука, и нет причин, чтобы он не звучал, это еще одна подсказка, которую вы смотрите на Deep Fake. Точно так же, даже если есть звук, если произнесенные слова не совпадают правильно с движущимися губами (или губы выглядят странно, когда человек говорит, как в скриншоте ниже), у вас может быть глубокая подделка.

Невероятные клипы . Этот вид само собой разумеется, но если вам показали действительно невероятный клип, есть большая вероятность, что вы на самом деле не поверите. Николас Кейдж никогда не снимался в роли Локи в фильме Marvel. Это было бы круто, хотя.

Сомнительные источники. Как и в случае с поддельными фотографиями, откуда видео, предположительно, взято, часто является большой подсказкой относительно его подлинности. Если «Нью-Йорк Таймс» рассказывает историю, гораздо более вероятно, что это будет что-то, что вы обнаружите в случайном уголке Reddit.

В настоящее время Deep Fakes — это скорее ужасающее любопытство, чем главная проблема. Результаты легко заметить, и хотя невозможно потворствовать тому, что делается, никто пока не пытается выдать Deep Fakes за подлинное видео.

Однако по мере совершенствования технологии они, вероятно, станут гораздо более серьезной проблемой. Например, убедительные фальшивые кадры с заявлением Ким Чен Ына о войне с США могут вызвать серьезную панику.

Оцените статью
TutoryBird.Ru
Добавить комментарий