Sora2 є новітньою моделлю відеогенерації від OpenAI. Ця система створює повністю штучні короткі відео на основі тексту, зображень або короткого голосового вводу.
З жовтня 2025 року також з’явився доступ через API, який розробники можуть використовувати для автоматичного створення та публікації AI-відео. У результаті кількість штучних кліпів щодня зростає.
Багато з них виглядають вражаюче реалістично і для користувачів майже не відрізняються від справжніх відеозаписів. У цьому матеріалі описано, як надійно визначити відео, створені штучним інтелектом, попри їхню зовнішню правдоподібність.
Як розпізнати deepfake-відео зі штучним інтелектом у соціальних мережах
Відео, створені Sora2, часто виглядають надзвичайно переконливо. Водночас існує низка ознак, за якими можна надійно визначити штучно згенерований кліп. Деякі з них помітні одразу, інші стають очевидними лише під час уважного перегляду. У контексті deepfake-технологій також варто звернути увагу на рекомендацію: одне просте запитання може миттєво зупинити шахрая, який використовує deepfake.
Неприродні рухи та дрібні збої
Моделі штучного інтелекту досі мають проблеми зі складними послідовностями рухів. Варто звертати увагу на такі ознаки:
-
неприродно гнучкі руки або частини тіла
-
рухи, які раптово зупиняються або виглядають смиканими
-
руки або обличчя, що на мить мерехтять або деформуються
-
люди, які на короткий час зникають з кадру або некоректно взаємодіють з об’єктами
Подібні викривлення є типовими артефактами, які все ще трапляються в AI-відео. Як приклад можна навести ролик зі зграєю дельфінів, де помітні неприродні рухи під час плавання та раптова поява косаток у вигляді візуального збою. Також можна помітити «галюцинації» рук у жінки в синій куртці.
Непослідовні деталі на тлі
Нестабільні фони є частим індикатором штучного походження відео. Об’єкти можуть змінювати форму або положення, написи на стінах перетворюються на набір літер або стають нечитаємими. Джерела світла іноді змінюються у спосіб, що не виглядає правдоподібним.
Дуже коротка тривалість відео
Багато кліпів, створених у Sora2, наразі мають тривалість лише кілька секунд. Більшість AI-відео, які поширюються в соціальних мережах, тривають від 3 до 10 секунд. Довші сцени зі стабільною картинкою можливі, але поки що залишаються рідкісними.
Порушення фізики
Слід звертати увагу на рухи, які не відповідають фізичним законам. Наприклад, одяг, що коливається у неправильному напрямку вітру, вода, яка поводиться неприродно, або кроки без коректних тіней і контакту з поверхнею. Sora2 здатна створювати дуже плавні анімації, але фізика все ще видає штучне походження окремих сцен.
Нереалістичні текстури або деталі шкіри
На крупних планах часто помітно, що пори шкіри виглядають надто гладкими, надто симетричними або пластичними. Волосся може мати нечіткі краї або рухатися надто рівномірно й одноманітно.
Дивні рухи очей і погляду
Попри вражаючу реалістичність облич, очі часто залишаються слабким місцем. Типові помилки включають рідкісне або нерівномірне моргання, неправильну зміну розміру зіниць або погляд, який нелогічно не відповідає подіям у кадрі. Якщо обличчя виглядає «порожнім» або очі трохи розташовані невірно, потрібна підвищена обережність.
Надто стерильні звукові доріжки
Sora2 генерує не лише зображення, а й звук. У багатьох кліпах аудіо звучить надзвичайно чисто, без фонового шуму, відлуння приміщення або випадкових звуків на кшталт кроків, шелесту чи вітру. Голоси іноді звучать неприродно чітко або ніби відірвані від простору. Помилки синхронізації, коли рухи губ не збігаються з голосом, також є чітким сигналом.
Перевірка метаданих
Під час перегляду YouTube Shorts можна відкрити опис відео, натиснувши на три крапки у правому верхньому куті та обравши пункт «Опис». YouTube іноді надає там додаткову інформацію про походження кліпу. У випадку штучно створених відео часто зустрічаються позначки на кшталт:
«Аудіо- або візуальний контент було значною мірою відредаговано або згенеровано цифровим способом».
У деяких випадках також з’являється примітка «Info from OpenAI». Це є вагомою ознакою того, що кліп створено за допомогою Sora2 або спорідненої моделі OpenAI. Така інформація доступна не завжди, але за її наявності вона дає цінні підказки щодо походження відео. Додатково можна скористатися інструментами на зразок https://verify.contentauthenticity.org/ для перевірки наявності метаданих C2PA. Водночас ці дані часто не зберігаються. Після повторного збереження, обрізання, конвертації, застосування фільтрів або повторного завантаження на іншу платформу цифрові відомості про походження зазвичай втрачаються.
Звернення уваги на водяні знаки
Sora2 додає до відео анімований водяний знак. Однак у соціальних мережах він часто відсутній, оскільки користувачі його видаляють або просто обрізають кадр. Відсутність водяного знака не означає, що відео є справжнім.
Довіра до власного відчуття
Якщо кліп виглядає «надто ідеальним» або люди в ньому поводяться дивно чи малоймовірно, варто придивитися уважніше. Багато deepfake-відео стають очевидними саме через такі тонкі невідповідності.
Ризики для політики, знаменитостей і повсякденного життя
З появою Sora2 проблема deepfake стає помітно гострішою. Дослідник штучного інтелекту Хані Фарід з Каліфорнійського університету в Берклі вже багато років попереджає про політичну небезпеку надзвичайно реалістичних AI-відео. За його словами, достатньо одного зображення і кількох секунд голосового запису, щоб створити правдоподібні відеосцени з конкретною людиною.
Це особливо критично для публічної політичної сфери, оскільки поширення штучних кліпів призводить до того, що навіть справжні записи можуть ставитися під сумнів. В одному з недавніх інтерв’ю для Spiegel Фарід сформулював це так:
«Якщо політик насправді скаже щось неприйнятне або незаконне, він може заявити, що це фейк. Тоді можна почати сумніватися в реальних подіях. Чому слід вірити побаченому, якщо навколо так багато підробленого контенту. У цьому і полягає справжня небезпека: якщо стрічка соціальних мереж, яка є основним джерелом інформації, складається із суміші реального та фальшивого, увесь світ починає здаватися підозрілим».
Знаменитості та приватні особи також дедалі частіше стають мішенню. Фальшиві зізнання, змонтовані сценічні відео або компрометуючі кліпи можуть цілеспрямовано використовуватися для шантажу або знищення репутації. У корпоративному середовищі додаткові ризики виникають через deepfake-голоси або підроблені відеоінструкції від нібито керівників.



