Sora2 — новейшая модель генерации видео от OpenAI. Эта система создает полностью искусственные короткие видеоролики на основе текста, изображений или короткого голосового ввода.
По состоянию на октябрь 2025 года также доступен доступ к API, который разработчики могут использовать для автоматического создания и публикации видеороликов с использованием ИИ. В результате количество искусственных клипов увеличивается с каждым днем.
Многие из них выглядят впечатляюще реалистично и для пользователей почти не отличаются от реальных видеороликов. В этой статье описано, как достоверно идентифицировать видеоролики, созданные искусственным интеллектом, несмотря на их кажущуюся правдоподобность.
Как распознать дипфейковые видео с искусственным интеллектом в соцсетях
Видео, созданные Sora2, зачастую выглядят чрезвычайно убедительно. В то же время существует ряд признаков, по которым можно достоверно идентифицировать искусственно созданный ролик. Некоторые из них заметны сразу, другие становятся очевидными только при более внимательном рассмотрении. В контексте технологий дипфейка также стоит обратить внимание на рекомендацию: один простой вопрос может мгновенно остановить мошенника, использующего дипфейк.
Неестественные движения и небольшие глюки
Модели искусственного интеллекта по-прежнему имеют проблемы со сложными последовательностями движений. Стоит обратить внимание на следующие признаки:
-
неестественно гибкие руки или части тела
-
движения, которые внезапно прекращаются или кажутся судорожными
-
руки или лицо, которые на мгновение мерцают или искажаются
-
люди, которые на короткое время пропадают из кадра или неправильно взаимодействуют с объектами
Подобные искажения — типичные артефакты, которые до сих пор встречаются в видео AI. В качестве примера можно привести ролик со стаей дельфинов, где видны неестественные движения во время плавания и внезапное появление косаток в виде зрительного провала. Также можно заметить «галлюцинации» рук женщины в синей куртке.
Непоследовательные детали на заднем плане
Нестабильный фон часто является индикатором искусственного происхождения видео. Предметы могут менять форму или положение, надписи на стенах превращаются в набор букв или становятся нечитаемыми. Источники света иногда меняются таким образом, что это выглядит неправдоподобно.
Очень короткая продолжительность видео
Многие клипы, созданные в Sora2, в настоящее время длятся всего несколько секунд. Большинство видео AI, публикуемых в социальных сетях, имеют продолжительность от 3 до 10 секунд. Возможны более продолжительные сцены со стабильной картинкой, но пока остаются редкостью.
Нарушение физики
Следует обратить внимание на движения, не соответствующие физическим законам. Например, одежда раскачивается не в ту сторону ветра, вода ведет себя неестественно или шаги без правильных теней и контакта с поверхностью. Sora2 способна создавать очень плавную анимацию, но физика по-прежнему придает некоторым сценам искусственное происхождение.
Нереалистичные текстуры кожи или детали
На крупных планах часто заметно, что поры кожи выглядят слишком гладкими, слишком симметричными или пластичными. Волосы могут иметь нечеткие края или двигаться слишком равномерно и монотонно.
Странные движения глаз и взгляда
Несмотря на впечатляющую реалистичность лиц, глаза часто остаются слабым местом. К частым ошибкам относятся редкое или нерегулярное моргание, неправильное изменение размера зрачков или взгляд, логически не соответствующий событиям в кадре. Если лицо выглядит «пустым» или глаза слегка расставлены, требуется повышенная осторожность.
Слишком стерильные саундтреки
Sora2 генерирует не только изображения, но и звук. Во многих клипах звук звучит удивительно чисто, без фонового шума, эха в помещении или случайных звуков, таких как шаги, шорох или ветер. Голоса иногда звучат неестественно четко или кажутся оторванными от пространства. Ошибки синхронизации, когда движения губ не совпадают с голосом, также являются явным сигналом.
Проверка метаданных
Во время просмотра YouTube Shorts вы можете открыть описание видео, нажав на три точки в правом верхнем углу и выбрав «Описание». YouTube иногда предоставляет там дополнительную информацию о происхождении клипа. В случае с искусственно созданными видеороликами часто наблюдаются такие признаки, как:
«Аудио или визуальный контент был существенно отредактирован или создан в цифровом виде».
В некоторых случаях также появляется пометка «Информация от OpenAI». Это убедительный признак того, что клип был создан с использованием Sora2 или связанной с ним модели OpenAI. Такая информация не всегда доступна, но когда она доступна, она дает ценную информацию о происхождении видео. Кроме того, вы можете использовать такие инструменты, как https://verify.contentauthenticity.org/ , чтобы проверить наличие метаданных C2PA. При этом эти данные часто не сохраняются. После повторного сохранения, обрезки, конвертации, применения фильтров или повторной загрузки на другую платформу цифровая информация о происхождении обычно теряется.
Внимание к водяным знакам
Sora2 добавит к вашему видео анимированный водяной знак. Однако в соцсетях он часто отсутствует, так как пользователи удаляют его или просто обрезают рамку. Отсутствие водяного знака не означает, что видео является аутентичным.
Доверяйте своим ощущениям
Если клип выглядит «слишком идеальным» или люди в нем ведут себя странно или неправдоподобно, стоит присмотреться. Многие дипфейковые видео становятся очевидными именно из-за таких тонких несоответствий.
Риски для политики, знаменитостей и повседневной жизни
С появлением Sora2 проблема дипфейков становится заметно острее. Исследователь искусственного интеллекта Хани Фарид из Калифорнийского университета в Беркли уже много лет предупреждает о политической опасности гиперреалистичных видео искусственного интеллекта. По его словам, одного изображения и нескольких секунд записи голоса достаточно, чтобы создать правдоподобные видеосцены с конкретным человеком.
Это особенно важно в публично-политической сфере, поскольку распространение искусственных клипов означает, что даже подлинные записи могут быть поставлены под сомнение. В недавнем интервью Spiegel Фарид сказал об этом так:
«Если политик на самом деле говорит что-то неприемлемое или незаконное, он может сказать, что это фейк. Тогда можно начать сомневаться в реальных событиях. Почему вы должны верить тому, что видите, когда вокруг так много фейкового контента? В этом и есть реальная опасность: если лента социальных сетей, которая является основным источником информации, состоит из смеси настоящего и фейка, весь мир начинает выглядеть подозрительно».
Знаменитости и частные лица также все чаще подвергаются нападениям. Фальшивые признания, постановочные видеоролики или компрометирующие ролики могут быть целенаправленно использованы для шантажа или разрушения репутации. В корпоративной среде дополнительные риски возникают из-за дипфейковых голосов или фейковых видеоинструкций от предполагаемых менеджеров.



