Наумов Аркадий

Путеводитель по дипфейкам: осведомлён — значит вооружён

Хотя изменённые и поддельные медиа не являются чем-то новым, дипфейки выводят их на совершенно новый уровень, используя искусственный интеллект для создания изображений, видео и аудио, которые кажутся реальными, но на самом деле таковыми не являются. Дипфейки (DeepFake) — это синтетические медиа, в которых человек на существующем изображении, видео или записи заменяется чьим-либо подобием. Технология DeepFake представляет собой одно из самых интригующих и противоречивых достижений в сфере ИИ. Поскольку дипфейки становятся всё доступнее, а их качество растёт, они создают серьёзные проблемы и в то же время дают новые возможности развития в различных сферах жизни человека.

Как создаются дипфейки

Сегодня технология дипфейков построена на сложных нейронных сетях, которым требуются огромные объёмы данных и вычислительные мощности для создания убедительного поддельного контента. Они основаны в первую очередь на использовании генеративно-состязательных сетей (GAN). Представленные в 2014 году Яном Гудфеллоу и его командой, GAN явили собой прорыв в этой области, позволяющий создавать более сложные и убедительные дипфейки. В этой технологии используются две нейронные сети: одна генерирует поддельные изображения, а другая пытается определить их подлинность, постоянно улучшая реалистичность результата.

Генеративно-состязательные сети (GAN)

GAN включают в себя две модели машинного обучения: генератора и дискриминатора. Первая создает изображения или видео, которые выглядят реальными, в то время как вторая оценивает их подлинность по набору реальных изображений или видео. Таким образом устанавливается состязательный процесс, который продолжается до тех пор, пока дискриминатор не перестанет отличать сгенерированные изображения от реальных, что приводит к очень убедительным дипфейкам.

GAN изучают нюансы человеческих выражений и движений. Они позволяют реалистично манипулировать медиа, синтезируя новый контент, имитирующий стиль и детализацию исходных данных. Это делает GAN невероятно мощным средством создания вводящих в заблуждение медиа, которые продолжают становиться всё более и более неотличимыми от подлинных.

Кинопроизводство и развлечения

Технологии дипфейков используются для улучшения визуальных эффектов в фильмах и телепередачах, восстановления вокала актёров, улучшения дубляжа на иностранном языке, омоложения актёров в сценах с воспоминаниями, или даже завершения работ после смерти актёра или его выхода на пенсию. Например, дипфейки применялись для омоложения персонажей в фильме «Ирландец».

Здравоохранение

В медицине технология DeepFake помогает проводить персонализированные терапевтические сеансы, на которых вместо врачей выступают дипфейки людей, кому пациент доверяет, чтобы сделать терапию более эффективной. Также технология может повысить диагностический потенциал выявления новообразований во время проведения магнитно-резонансной томографии (МРТ).

Политическая дезинформация

В дипфейковом видео может быть изображён политический деятель, делающий подстрекательские заявления или поддерживающий политику, которую он никогда не поддерживал. Это потенциально может повлиять на общественное мнение и, возможно, вызвать волнения.

Дипфейковый фишинг

Применяется с целью заставить человека совершить несанкционированные платежи или добровольно предоставить конфиденциальную информацию. Зачастую дипфейковый фишинг начинается с аудиодипфейка лица, которому доверяют. Преступник, замаскированный под номинальное лицо, связывается с жертвой через веб-конференцию или голосовые сообщения, а также применяет другие формы социальной инженерии, используя чувство срочности, чтобы заставить человека действовать импульсивно. Мошенники могут создавать аудиоклоны, которые звучат точно так же, как друзья или члены семьи, и использовать их по телефону, чтобы обманом заставить людей отправлять деньги.

Автоматизированные дезинформационные атаки

DeepFake также может использоваться для автоматических дезинформационных атак, таких как теории заговора и неверные теории о политических и социальных проблемах. Достаточно очевидным таким примером является  видео с Марком Цукербергом, утверждающим, что у него есть «полный контроль над данными миллиардов людей» благодаря Spectre, вымышленной организации из романов и фильмов о Джеймсе Бонде.

Современные технологии обнаружения дипфейков

Разработка инструментов для выявления дипфейков стала решающей в борьбе с цифровой дезинформацией. Некоторые из лучших методологий:

  • Анализ уровня ошибок. Выявляет несоответствия в цифровом изображении или видео, которые предполагают манипуляцию. Метод подразумевает анализ ошибок сжатия цифровых файлов и применяет глубокое обучение для распознавания закономерностей, типичных для дипфейков.
  • Обнаружение дипфейков в режиме реального времени. Некоторые инструменты предназначены для работы в режиме реального времени и используют ИИ для анализа видеопотоков и оповещения пользователей о наличии дипфейков во время их трансляции. Это крайне важно для средств массовой информации и прямых трансляций, где необходима немедленная проверка.
  • Обнаружение дипфейков в аудио. Методология анализирует тонкие голосовые шаблоны и обнаруживает незначительные аномалии, которые могут указывать на манипуляции. Это особенно полезно для проверки подлинности аудиофайлов и защиты от мошенничества с использованием имитации голоса.
  • Мультимодальные методы обнаружения объединяют несколько источников данных и сенсорных входов. Совместно анализируется как аудио, так и визуальные элементы. Такая интеграция помогает выявить расхождения между ними, которые могут остаться незамеченными при отдельном анализе.

10 советов по определению дипфейков

Как мы уже успели понять, наиболее распространённый метод, используемый в дипфейках, — это замена лиц. Внимательно осмотрите лицо на предмет каких-либо неровностей или размытостей. Часто именно здесь технологии дипфейков не могут плавно совместить изменённое лицо с телом.

  1. Проверьте дефекты контуров лица на границе волосистой части головы и фона. Они могут выглядеть неровными или неестественно резкими по сравнению с остальной частью изображения.
  2. В видеороликах плохая синхронизация губ с голосом может быть явным индикатором дипфейка. В этом случае движения рта не совпадают с произнесенными словами.
  3. Дипфейкам часто не удаётся идеально воспроизвести текстуру кожи, она выглядит неестественной.
  4. Освещение и тени в дипфейках могут не совпадать с естественными источниками света.
  5. Обратите внимание на более длинные, чем обычно, паузы между словами и предложениями. Голос человека также может звучать плоско и безжизненно.
  6. Дипфейки ещё не научились реалистично имитировать моргание, поэтому его либо вообще не будет, либо оно будет очень редким. Также отсутствие движения глаз является признаком дипфейка. Воспроизвести естественное движение глаз сложно, поскольку они обычно следят за собеседником и реагируют на него.
  7. Обратите внимание на роботизированные движения тела, головы и мимики в целом.
  8. Убедитесь, что видео или голосовой клип взят из известного и надёжного источника.
  9. Начинайте телефонные разговоры с коллегами, используя секретные пароли или специальные вопросы. Если говорящий вас не понимает или игнорирует, это может быть голосовой клон.

Чтобы оставить комментарий, необходимо зарегистрироваться или войти.