Исследователи из Intel и Университета Бингемтона разработали новую технологию определения является ли видео фальшивым. С развитием технологий дипфейки (поддельные видео) стали доступны любому и требуют немного времени и денег для создания. Такие видео могут быть опасными, поскольку на них можно заставить любое лицо, особенно политиков, говорить то, что она никогда бы не сказала.
Одним из самых известных случаев публично признанного использования дипфейка стал клип издания Buzzfeed. Ролик с бывшим президентом США Бараком Обамой создали, чтобы привлечь внимание к проблеме діпфейків. На том видео Обама говорил то, что он на самом деле не говорил.
Крупные организации, включая Facebook и Microsoft, ищут способы определения діпфейк-видео. Но это история борьбы оружия и брони: как только исследователи придумают как отличать фальшивое видео, программное обеспечение для его создания начинает учитывать найденную особенность.
Изобретение специалистов Университета Бингемтона и Intel может надолго предоставить преимущество на сторону технологий определения дипфейков. Предложенная ими технология предлагает использовать для определения оригинальности видео не артефакты картинки, которые остаются после редактирования, а биологические особенности людей в кадре.
Среди таких особенностей – сердцебиение и циркуляция крови, что незаметно для зрителя. Однако на самом деле с каждым ударом сердца цвет человеческой кожи несколько меняется и алгоритмы способны это заметить. Это известная в медицине технология фотоплетизмографии, которую используют для мониторинга состояния младенцев, чтобы не прикреплять к их чувствительной коже нательные датчики.
В фалишивых видео также есть циркуляция крови у людей в кадре, но она запечатлена не так качественно как в оригинальном видео. Также в разных частях фальшивого лица или тела будет различная циркуляция крови.
Расхождение сердцебиения различных использованных в фальшивом видео частей тела позволяет определять оригинальность с точностью более 90%. Также методика позволяет назвать в каком программном обеспечении создавалось проанализировано діпфейк-видео. Сегодня чаще всего используется четыре программы для генерации фальшивок: DeepFakes, Face2Face, FaceSwap, NeuralTex.
А если вы хотите поэкспериментировать с діпфейк-видео, читайте совет «Как вставить свое лицо в видео (создать дипфейк) на Android».