I video generati dall’intelligenza artificiale sono ormai all’ordine del giorno, offuscando il confine tra realtà e invenzione. Strumenti come Sora di OpenAI, Veo 3 di Google e Nano Banana hanno reso più semplice che mai la creazione di deepfake fotorealistici, dall’intrattenimento innocuo alla disinformazione potenzialmente pericolosa. Questo rapido progresso fa sì che ciò che una volta appariva chiaramente falso ora sembra spesso del tutto credibile.

La sfida è reale: la capacità di creare contenuti AI convincenti sta superando la nostra capacità di rilevarli. Mentre le aziende tecnologiche si affrettano a sviluppare modelli più sofisticati, anche gli individui devono diventare più perspicaci.

Perché individuare i video AI sta diventando sempre più difficile

Sora e Veo 3 rappresentano un passo avanti nella generazione di video AI. Questi strumenti forniscono filmati ad alta risoluzione con audio sincronizzato, spesso mostrando una creatività sorprendente. La funzione “cameo” di Sora consente l’inserimento continuo delle sembianze di persone reali nelle scene generate dall’intelligenza artificiale, rendendo i deepfake ancora più convincenti. La spinta competitiva tra Google e OpenAI ha accelerato lo sviluppo, dando vita a strumenti in grado di creare contenuti realistici e convincenti più velocemente che mai.

Gli esperti sono preoccupati per le implicazioni. I personaggi pubblici e le celebrità sono particolarmente vulnerabili e il rischio di usi dannosi, dalle false sponsorizzazioni agli eventi inventati, è significativo. Mentre le società di intelligenza artificiale stanno iniziando a implementare misure di salvaguardia, il problema di fondo è che l’intelligenza artificiale accessibile rende facile per chiunque creare falsi convincenti.

Come identificare i video generati dall’intelligenza artificiale

Nonostante le sfide, ci sono dei passaggi che puoi intraprendere per verificare l’autenticità di un video. Ecco come:

1. Cerca la filigrana Sora:
L’app Sora di OpenAI include una filigrana bianca in movimento a forma di nuvola su tutti i video generati. Questo è simile alla filigrana di TikTok. Sebbene siano utili, le filigrane possono essere ritagliate o rimosse con app di terze parti, quindi non è un metodo infallibile. OpenAI riconosce che la società dovrà adattarsi a un mondo in cui i deepfake sono diffusi.

2. Controlla i metadati:
I metadati del video contengono informazioni sulla sua creazione, inclusi timestamp, dettagli della telecamera e credenziali dei contenuti generati dall’intelligenza artificiale. OpenAI partecipa alla Coalition for Content Provenance and Authenticity (C2PA), incorporando metadati di identificazione AI nei video Sora. Utilizza lo strumento di verifica della Content Authenticity Initiative (https://verify.contentauthenticity.org/ ) per verificare la presenza di questi metadati. Lo strumento contrassegnerà i video generati da Sora come “emessi da OpenAI” e confermerà la loro origine AI. Tuttavia, i metadati possono essere manipolati e altri strumenti AI (come Midjourney) non sempre attivano questi flag.

3. Attenzione alle etichette dei social media:
Piattaforme come Meta (Facebook, Instagram), TikTok e YouTube stanno sperimentando sistemi di rilevamento dell’intelligenza artificiale per contrassegnare i contenuti generati. Sebbene questi sistemi siano imperfetti, possono fornire una prima indicazione.

4. Trasparenza della domanda:
Il metodo più affidabile è la divulgazione del creatore. Molte piattaforme ora consentono agli utenti di etichettare i post generati dall’intelligenza artificiale. Incoraggia i creatori a farlo. Poiché l’intelligenza artificiale diventa sempre più indistinguibile dalla realtà, la trasparenza è fondamentale.

Il futuro dell’autenticità

Nessun singolo metodo garantisce un rilevamento perfetto. La migliore difesa è lo scetticismo. Non fidarti automaticamente di tutto ciò che vedi online. Esamina attentamente i video per individuare incongruenze visive, movimenti innaturali o testo distorto. Anche gli esperti a volte si lasciano ingannare, quindi la vigilanza è fondamentale.

L’aumento dei contenuti generati dall’intelligenza artificiale richiede una responsabilità collettiva. Creatori, piattaforme e spettatori devono adattarsi a un mondo in cui la verifica è fondamentale. Il confine tra reale e falso è sempre più sfumato e spetta a tutti noi garantire che la verità rimanga distinguibile.