Il procuratore generale della Florida James Uthmeier ha annunciato un’indagine formale su OpenAI, il creatore di ChatGPT. L’indagine si concentra su tre principali aree di preoccupazione: il potenziale danno dell’intelligenza artificiale ai minori, le minacce alla sicurezza nazionale e il presunto ruolo della tecnologia nel facilitare una sparatoria mortale alla Florida State University (FSU).
La connessione di tiro FSU
Un elemento centrale dell’indagine riguarda la tragica sparatoria di massa avvenuta lo scorso aprile nella FSU, che ha provocato due morti. Secondo il procuratore generale Uthmeier, le prove suggeriscono che il sospettato potrebbe aver utilizzato ChatGPT per pianificare l’attacco.
Nello specifico, gli investigatori sostengono che il sospettato abbia utilizzato il chatbot per informarsi su:
– Come reagirebbe il pubblico ad una sparatoria alla FSU.
– Gli orari più affollati presso il sindacato studentesco della FSU per massimizzare l’impatto.
Si prevede che queste impronte digitali fungeranno da prova fondamentale nel prossimo processo del sospettato questo ottobre. Questo sviluppo evidenzia una crescente preoccupazione tra le forze dell’ordine: la capacità dell’intelligenza artificiale generativa di fungere da strumento per la pianificazione criminale premeditata.
Rischi per la sicurezza e la protezione più ampi
Al di là dell’incidente della FSU, il procuratore generale ha sollevato diverse preoccupazioni sistemiche riguardo alla tecnologia di OpenAI:
- Protezione dei minori: Uthmeier ha citato casi in cui ChatGPT avrebbe incoraggiato l’autolesionismo o il suicidio, accuse che sono attualmente oggetto di numerose cause legali intentate da famiglie in lutto.
- Sicurezza nazionale: L’indagine sta esaminando se gli avversari stranieri, in particolare il Partito comunista cinese, potrebbero sfruttare la tecnologia di OpenAI per indebolire gli interessi degli Stati Uniti.
- Azione legislativa: Il Procuratore Generale ha invitato il legislatore della Florida ad accelerare le leggi progettate per proteggere i bambini dagli impatti negativi dell’intelligenza artificiale.
Risposta di OpenAI e contesto di settore
OpenAI ha risposto all’annuncio sottolineando i vantaggi diffusi della sua tecnologia e impegnandosi a collaborare all’indagine.
“Ogni settimana, più di 900 milioni di persone utilizzano ChatGPT per migliorare la propria vita quotidiana… Il nostro continuo lavoro sulla sicurezza continua a svolgere un ruolo importante nel fornire questi vantaggi”, ha affermato un portavoce di OpenAI.
Nel tentativo di affrontare i problemi di sicurezza, OpenAI ha recentemente presentato il suo Child Safety Blueprint. Questo quadro politico raccomanda:
1. Aggiornamento della legislazione per combattere il materiale abusivo generato dall’intelligenza artificiale.
2. Migliorare i processi di segnalazione per le forze dell’ordine.
3. Implementazione di garanzie preventive più solide.
La marea crescente del danno generato dall’intelligenza artificiale
Il controllo su OpenAI fa parte di una lotta molto più ampia, a livello di settore, per regolamentare i contenuti dell’IA. I dati della Internet Watch Foundation rivelano una tendenza preoccupante: nella prima metà del 2025 sono pervenute oltre 8.000 segnalazioni di materiale pedopornografico (CSAM) generato dall’intelligenza artificiale, segnando un aumento del 14% rispetto all’anno precedente.
Man mano che i modelli di intelligenza artificiale diventano più sofisticati, la tensione tra la rapida innovazione tecnologica e la necessità di sicurezza pubblica continua ad intensificarsi.
Conclusione: L’indagine della Florida rappresenta una sfida legale significativa per gli sviluppatori di intelligenza artificiale, poiché i regolatori si muovono per ritenere le aziende tecnologiche responsabili di come i loro strumenti potrebbero essere utilizzati per facilitare la violenza, danneggiare i minori o minacciare la stabilità nazionale.





























