Відео, створені штучним інтелектом (ШІ), стали звичним явищем, стираючи межу між реальністю та фейком. Такі інструменти, як Sora від OpenAI, Veo 3 від Google і Nano Banana, зробили створення фотореалістичних глибоких фейків легшим, ніж будь-коли, починаючи від нешкідливих розваг і закінчуючи потенційно небезпечною дезінформацією. Такий швидкий розвиток означає, що те, що раніше відразу було очевидно як очевидна підробка, тепер часто виглядає цілком правдоподібно.

Це непросте завдання: здатність штучного інтелекту створювати привабливий контент випереджає нашу здатність його виявляти. Оскільки технологічні компанії поспішають розробляти кращі моделі, люди повинні стати більш розбірливими.

Чому розпізнавання відео штучним інтелектом стає все складнішим

Sora та Veo 3 представляють собою крок вперед у створенні відео на основі штучного інтелекту. Ці інструменти забезпечують високоякісне відео із синхронізованим звуком, часто демонструючи дивовижну творчість. Епізодична функція Sora дозволяє плавно вставляти обличчя реальних людей у ​​сцени, згенеровані штучним інтелектом, роблячи глибокі фейки ще переконливішими. Конкуренція між Google і OpenAI прискорила розвиток, що призвело до появи інструментів, які можуть створювати правдоподібний вміст швидше, ніж будь-коли раніше.

Експерти стурбовані наслідками. Громадські діячі та знаменитості особливо вразливі, і потенціал для зловживань, від фальшивих рекламних кампаній до сфабрикованих заходів, є значним. Хоча компанії зі штучним інтелектом починають впроваджувати заходи безпеки, головна проблема полягає в тому, що доступний ШІ дозволяє будь-кому створювати переконливі фейки.

Як розпізнати відео, створені ШІ

Незважаючи на труднощі, є кроки, які ви можете зробити, щоб перевірити автентичність відео. Ось як:

1. Знайдіть водяний знак Sora:
Програма Sora від OpenAI містить рухомий водяний знак білої хмари на всіх створених відео. Це схоже на водяний знак TikTok. Хоча це корисно, водяні знаки можна обрізати або видалити за допомогою програм сторонніх розробників, тому це не надійний метод. OpenAI усвідомлює, що суспільству доведеться адаптуватися до світу, де широко поширені дипфейки.

2. Перевірте метадані:
Метадані відео містять інформацію про його створення, включаючи позначки часу, деталі камери та облікові дані, згенеровані ШІ. OpenAI бере участь у Coalition for Content Provenance and Authenticity (C2PA), вбудовуючи ідентифікаційні метадані AI у відео Sora. Використовуйте інструмент перевірки Content Authenticity Initiative (https://verify.contentauthenticity.org/ ), щоб перевірити ці метадані. Інструмент позначатиме створене Sora відео як «згенероване OpenAI» і підтверджуватиме його походження AI. Однак метаданими можна маніпулювати, а інші інструменти AI (такі як Midjourney) не завжди позначають ці прапорці.

3. Звертайте увагу на теги в соціальних мережах:
Такі платформи, як Meta (Facebook, Instagram), TikTok і YouTube, експериментують із системами виявлення штучного інтелекту, щоб позначати згенерований контент. Хоча ці системи не ідеальні, вони можуть дати початкове уявлення.

4. Прозорість попиту:
Найнадійніший спосіб – розкриття творцем. Зараз багато платформ дозволяють користувачам додавати теги до контенту, створеного ШІ. Заохочуйте творців до цього. Оскільки штучний інтелект стає дедалі невідрізним від реальності, прозорість є надзвичайно важливою.

Майбутнє автентичності

Жоден метод не гарантує ідеального виявлення. Найкращий захист — скептицизм. Не довіряйте автоматично всьому, що бачите в Інтернеті. Уважно перевіряйте відео на наявність візуальних невідповідностей, неприродних рухів або спотвореного тексту. Навіть експертів інколи вводять в оману, тому пильність є ключовою.

Обмін контентом, створеним ШІ, вимагає колективної відповідальності. Творці, платформи та аудиторія повинні адаптуватися до світу, де перевірка має першочергове значення. Межа між тим, що є справжнім, і тим, що є підробкою, стирається, і від усіх нас залежить, щоб правда залишалася помітною.