Не дайте себе обманути: 5 простих порад, як розпізнати відео, створене ШІ
Сьогодні ми не маємо великої кількості інструментів, які б виявляли підробки серед зображень та відео. На щастя, здебільшого технології генерування ще не настільки досконалі, щоб обманювати нас кожного разу. Вони припускаються помилок, створюють абсурдні сцени та й загалом мають здебільшого однаковий стиль виконання, добре помітний тренованому оку. Тож як розпізнати фейки?
Трохи про генеративні технології штучного інтелекту
Генеративний ШІ вдосконалюється шаленими темпами. Стає все складніше визначити, коли щось, що ви бачите в інтернеті, є реальним, а коли — сфабрикованим. І це стосується не лише статичних зображень. Відео, створені штучним інтелектом, також покращуються, а з появою інструменту для перетворення тексту у відео Sora від OpenAI, відрізнити факт від вигадки, створеної штучним інтелектом, незабаром може стати складніше, ніж будь-коли.
Дивіться також 4 причини використовувати Microsoft Copilot замість ChatGPT
Тож як саме виявляти відео, створені Sora та іншими штучними інтелектами? На жаль, поки що вам доведеться покладатися на власну спостережливість та уважність. Щоб допомогти вам відточити свої навички та дізнатися, на що слід звертати увагу, ми зібрали кілька найпоширеніших і найпомітніших ознак підробки.
Виклик законам фізики
Ми живемо в світі, яким керують стійкі закони фізики. Але часто цей факт ігнорується штучним інтелектом. У своїй статті OpenAI говорить про обмеження Sora як симулятора: "Наприклад, він неточно моделює фізику багатьох базових взаємодій, таких як розбиття скла".
Ось відео, що демонструє подібний сценарій. Склянка підстрибує в повітрі без видимої причини, і рідина проходить крізь тверде скло, яке саме розчиняється, коли падає на стіл.
Приклад "зламаних" законів фізики в ШІ Sora: відео
Цей приклад є, звісно ж, надзвичайно очевидним і помітним. Але іноді це можуть бути якісь дрібниці. Намагаючись визначити, чи було відео створено штучним інтелектом, слід уважно спостерігати за всіма явищами в ньому, незалежно від того, чи це основна дія, чи щось, що відбувається на задньому плані.
Крім того, оцінюйте свої відчуття під час перегляду. Коли речі поводяться не так, як повинні, нам, людям, часто буває некомфортно – це явище відоме під назвою "моторошна долина". Тому довіряйте своїй інтуїції. Якщо вам здається, що щось не так — навіть якщо ви не можете точно визначити, що саме, — сприймайте це як можливу ознаку того, що відео заслуговує на додаткову перевірку.
Нереальність наслідків
Якщо ви відкусите шматочок яблука, це означає що він від'єднається від нього й зникне у вашому роті. Однак у випадку ШІ це не завжди так. OpenAI зазначає, що "взаємодія, як і вживання їжі, не завжди призводить до правильної зміни стану об'єкта". Тобто певні дії у фейкових відео часто не мають жодних наслідків або ж видають нереалістичні наслідки.
Тому не менш важливо відстежувати реакції, особливо дії, спрямовані на тверді об'єкти. Це може бути, наприклад, відсутність слідів на снігу.
Послідовність нісенітниць
Уважно подивіться на наступне відео і спробуйте вказати, що з ним не так.
На перший погляд, все дуже реалістично. Ми бачимо статичний і вельми реалістичний кадр з малюнком аквареллю та людську руку, яка малює пензлем. Однак, якщо придивитися, можна побачити, що людина малює безперервно, не вмочуючи пензель у нові кольори фарб, тоді як мазки під ним постійно різних кольорів.
Аналогічно з цим ми бачили багато випадків, коли в кадрі людське тіло буквально поводилося як пластилін чи вода, перетікаючи з одного в інше, поглинаючи предмети або породжуючи їх із себе. Це може відбуватися на фоні, розмито, і ви не звернете уваги, однак це явний вказівник штучності відео.
Дивіться також NVIDIA хоче замінити медсестер штучним інтелектом за 9 доларів на годину
Шукайте знайоме
Технічна директорка OpenAI Міра Мураті неодноразово відмовлялася сказати, на чому саме навчали Sora, окрім як на "загальнодоступних і ліцензованих даних". Якщо залишити осторонь етичні та потенційні юридичні наслідки цього, то це означає, що ви можете спробувати провести реверс-інжиніринг відео, щоб побачити, чи є воно справжнім чи ні.
Нік Сен-П'єр, креативний директор і шанувальник ШІ Midjourney, висловив одне цікаве припущення і, схоже, підтвердив його. Він сформулював підказки, які підходили до відео, створених "Сорою", а потім пропустив їх через Midjourney, щоб згенерувати нерухомі зображення. Він знайшов більше десятка прикладів, де відео Sora – це не більше, ніж зображення Midjourney у русі.
Якщо ви хочете задіяти більше, ніж ваші органи чуття, оцінюючи відео, придумайте підказку, яка, на вашу думку, була використана при його створенні, і пропустіть її через один-два генератори текстів і зображень. Подивіться, наскільки вони схожі. Також перетворіть підказку на пошук у Google, щоб знайти джерела, які могли бути використані для відео.
І нарешті, будьте пильні
Штучний інтелект, що перетворює текст у відео, все ще перебуває в зародковому стані, і оскільки технологія постійно розвивається, найкращий спосіб уникнути обману — розвиватися разом із нею.
Мірою того, як ШІ розвивається і генерує все більш реалістичні відеоматеріали, нам потрібно буде впроваджувати нові інструменти й методи, щоб ефективно їх виявляти. Тож не поспішайте розслаблятися! Слідкуйте за новими інструментами виявлення та системами перевірки автентичності.