Filmy tworzone przez sztuczną inteligencję (AI) stały się powszechne, zacierając granicę między rzeczywistością a fikcją. Narzędzia takie jak Sora firmy OpenAI, Veo 3 firmy Google i Nano Banana sprawiły, że tworzenie fotorealistycznych deepfake’ów jest łatwiejsze niż kiedykolwiek wcześniej, począwszy od nieszkodliwej rozrywki po potencjalnie niebezpieczną dezinformację. Ten szybki rozwój oznacza, że to, co kiedyś było od razu oczywiste jako oczywista podróbka, teraz często wygląda całkowicie wiarygodnie.
Nie jest to łatwe zadanie: zdolność sztucznej inteligencji do tworzenia atrakcyjnych treści przewyższa naszą zdolność do ich wykrywania. Ponieważ firmy technologiczne spieszą się z opracowywaniem lepszych modeli, jednostki muszą stać się bardziej wymagające.
Dlaczego rozpoznawanie wideo AI staje się coraz trudniejsze
Sora i Veo 3 stanowią krok naprzód w generowaniu wideo opartego na sztucznej inteligencji. Narzędzia te zapewniają wysokiej jakości materiał filmowy ze zsynchronizowanym dźwiękiem, często wykazując się niesamowitą kreatywnością. Funkcja kamei Sory umożliwia płynne wstawianie twarzy prawdziwych ludzi do scen generowanych przez sztuczną inteligencję, dzięki czemu deepfakes są jeszcze bardziej przekonujące. Konkurencja między Google i OpenAI przyspieszyła rozwój, czego efektem są narzędzia, które mogą tworzyć wiarygodne treści szybciej niż kiedykolwiek wcześniej.
Eksperci boją się konsekwencji. Osoby publiczne i gwiazdy są szczególnie bezbronne, a potencjał nadużyć, od fałszywych kampanii reklamowych po sfabrykowane wydarzenia, jest znaczny. Chociaż firmy zajmujące się sztuczną inteligencją zaczynają wdrażać środki bezpieczeństwa, głównym problemem jest to, że dostępna sztuczna inteligencja pozwala każdemu tworzyć przekonujące podróbki.
Jak rozpoznać filmy wygenerowane przez sztuczną inteligencję
Pomimo trudności możesz podjąć kroki, aby zweryfikować autentyczność filmu. Oto jak:
1. Poszukaj znaku wodnego Sora:
Aplikacja Sora OpenAI zawiera ruchomy znak wodny w postaci białej chmury na wszystkich wygenerowanych filmach. Jest podobny do znaku wodnego TikTok. Chociaż jest to przydatne, znaki wodne można przyciąć lub usunąć za pomocą aplikacji innych firm, więc nie jest to niezawodna metoda. OpenAI zdaje sobie sprawę, że społeczeństwo będzie musiało dostosować się do świata, w którym powszechne są deepfakes.
2. Sprawdź metadane:
Metadane wideo zawierają informacje o jego utworzeniu, w tym znaczniki czasu, szczegóły kamery i dane uwierzytelniające wygenerowane przez sztuczną inteligencję. OpenAI uczestniczy w Koalicji na rzecz pochodzenia i autentyczności treści (C2PA), osadzając metadane tożsamości AI w filmach Sora. Aby zweryfikować te metadane, użyj narzędzia do weryfikacji Content Authenticity Initiative (https://verify.contentauthenticity.org/ ). Narzędzie oznaczy film wygenerowany przez Sorę jako „wygenerowany przez OpenAI” i potwierdzi jego pochodzenie przez sztuczną inteligencję. Jednakże metadanymi można manipulować, a inne narzędzia sztucznej inteligencji (takie jak Midjourney) nie zawsze zgłaszają te flagi.
3. Zwróć uwagę na tagi w sieciach społecznościowych:
Platformy takie jak Meta (Facebook, Instagram), TikTok i YouTube eksperymentują z systemami wykrywania AI w celu oznaczania generowanych treści. Chociaż systemy te nie są doskonałe, mogą stanowić wstępny pomysł.
4. Żądaj przejrzystości:
Najbardziej niezawodną metodą jest ujawnienie przez twórcę. Wiele platform umożliwia obecnie użytkownikom oznaczanie treści generowanych przez sztuczną inteligencję. Zachęcaj do tego twórców. W miarę jak sztuczna inteligencja staje się coraz bardziej nieodróżnialna od rzeczywistości, przejrzystość ma kluczowe znaczenie.
Przyszłość autentyczności
Żadna metoda nie gwarantuje doskonałej detekcji. Najlepszą obroną jest sceptycyzm. Nie ufaj automatycznie wszystkiemu, co widzisz w Internecie. Sprawdź dokładnie filmy pod kątem niespójności wizualnych, nienaturalnych ruchów lub zniekształconego tekstu. Nawet eksperci czasami dają się zwieść, więc czujność jest kluczem.
Udostępnianie treści generowanych przez sztuczną inteligencję wymaga zbiorowej odpowiedzialności. Twórcy, platformy i odbiorcy muszą dostosować się do świata, w którym weryfikacja jest najważniejsza. Granica między tym, co prawdziwe, a tym, co fałszywe, zaciera się i od nas wszystkich zależy, czy prawda pozostanie dostrzegalna.
