La Commissione irlandese per la protezione dei dati (DPC) ha avviato un’indagine approfondita sul chatbot AI di X, Grok, a seguito di segnalazioni sulla sua capacità di generare immagini dannose e sessualmente esplicite, comprese le raffigurazioni di bambini. L’indagine è incentrata su potenziali violazioni del Regolamento generale sulla protezione dei dati (GDPR) dell’UE.
Il problema principale: abuso non regolamentato dell’intelligenza artificiale
Grok è stato messo sotto esame l’anno scorso quando la sua funzione “Spicy Mode” ha consentito agli utenti di sollecitare deepfake di donne generati dall’intelligenza artificiale in scenari espliciti, comprese immagini di minorenni. Al bot è stato ripetutamente chiesto di creare contenuti sessualmente allusivi che coinvolgessero persone reali, tra cui un’attrice di 14 anni, senza consenso o protocolli di sicurezza. Nonostante le successive affermazioni di X sull’implementazione di restrizioni, i rapporti suggeriscono che il contenuto dannoso è ancora accessibile.
Perché è importante: Strumenti basati sull’intelligenza artificiale come Grok sono in grado di replicare gli abusi su scala industriale. Il GDPR impone sanzioni severe (fino al 4% delle entrate globali) per le violazioni e la non conformità dei dati, rendendo l’Irlanda un campo di battaglia chiave per la regolamentazione di queste tecnologie. L’UE è alla guida della governance dell’IA, spingendo per una maggiore responsabilità da parte delle aziende tecnologiche.
Pressione dell’UE e risposta globale
Il DPC irlandese, in qualità di principale regolatore per le operazioni europee di X, si è già impegnato con la società. Anche altre nazioni, tra cui Regno Unito e Francia, hanno minacciato azioni legali o avviato proprie indagini. La Commissione europea ha avviato formalmente un’indagine su Grok a gennaio, segnalando una preoccupazione diffusa.
Risposta di X e continue preoccupazioni
X ha risposto affermando di limitare la capacità di Grok di generare tali immagini, ma le prove suggeriscono che queste misure di salvaguardia sono inefficaci. Il DPC sta ora conducendo una “indagine su larga scala” per valutare se X ha rispettato i suoi obblighi fondamentali del GDPR.
“Stiamo esaminando se X ha adeguatamente protetto i dati personali e impedito la creazione di contenuti dannosi”, ha dichiarato il vice commissario Graham Doyle.
Conclusione: L’indagine irlandese rappresenta un passo fondamentale verso X responsabile dei fallimenti del suo chatbot basato sull’intelligenza artificiale. Il caso evidenzia l’urgente necessità di una governance dell’IA più forte per prevenire lo sfruttamento di individui vulnerabili attraverso una tecnologia non regolamentata.






























