Gli app store di Apple e Google hanno ospitato dozzine di applicazioni che utilizzano l’intelligenza artificiale per rimuovere digitalmente gli indumenti dalle immagini, esponendo i soggetti senza il loro consenso. Un nuovo rapporto del Tech Transparency Project (TTP) rivela che queste app sono state scaricate oltre 705 milioni di volte a livello globale, generando circa 117 milioni di dollari di entrate per i giganti della tecnologia attraverso le commissioni degli app store.
La portata del problema
L’indagine del TTP ha identificato 55 app “nudify” su Google Play e 47 sull’App Store di Apple, dimostrando un’ampia disponibilità di strumenti in grado di creare deepfake non consensuali. Nonostante entrambe le società abbiano politiche che vietano tali contenuti, le app sono rimaste attive per lunghi periodi, traendo profitto da immagini offensive e sessualizzate.
“Entrambe le società affermano di dedicarsi alla sicurezza e alla protezione degli utenti, ma ospitano una raccolta di app che possono trasformare una foto innocua di una donna in un’immagine offensiva e sessualizzata.” – Rapporto TTP.
Risposta del gigante tecnologico
A seguito del rapporto TTP, Apple ha dichiarato di aver rimosso 28 delle app identificate, mentre Google afferma di averne “sospese diverse”. Tuttavia, il TTP insiste sul fatto che queste azioni sono insufficienti. Il problema principale non è solo la rimozione delle app, ma innanzitutto l’incapacità delle piattaforme di impedire in modo proattivo la comparsa di queste app.
La minaccia più ampia del deepfake dell’intelligenza artificiale
Questa proliferazione di app “nudify” fa parte di una tendenza più ampia. Anche xAI di Elon Musk e il suo chatbot Grok sono stati esaminati per problemi simili: Grok avrebbe creato oltre 3 milioni di immagini sessualizzate, tra cui migliaia che potrebbero raffigurare bambini, con controlli di sicurezza minimi in atto.
Il rapido progresso dell’intelligenza artificiale rende inevitabile la diffusione della tecnologia deepfake. Le aziende tecnologiche devono affrontare una sfida continua nel bilanciare l’innovazione con la sicurezza degli utenti, soprattutto perché gli strumenti di intelligenza artificiale diventano più accessibili e potenti.
La situazione attuale evidenzia un divario critico nella regolamentazione e nell’applicazione, lasciando gli utenti vulnerabili ai deepfake non consensuali. Fino a quando non verranno implementate misure più severe, queste piattaforme continueranno a trarre profitto da contenuti offensivi sostenendo di dare priorità alla sicurezza degli utenti.
