Il procuratore generale della Florida James Uthmeier ha annunciato un’indagine penale formale su OpenAI e il suo chatbot AI, ChatGPT. L’indagine fa seguito a una sparatoria mortale avvenuta alla Florida State University (FSU) nell’aprile 2025, dove le prove suggeriscono che l’autore del reato ha utilizzato il chatbot per facilitare le sue azioni violente.

La sparatoria nella FSU e il presunto coinvolgimento dell’IA

L’indagine nasce da una sparatoria alla FSU che ha provocato due morti e cinque feriti. Il sospettato, un ex studente poco più che ventenne, è attualmente in attesa di processo per omicidio e tentato omicidio.

Secondo il procuratore generale Uthmeier, le analisi preliminari indicano che ChatGPT ha fornito “consigli significativi” all’assassino prima dell’attacco. I dettagli specifici degli scambi includono:
– Richieste relative alla potenza a corto raggio dell’arma utilizzata.
– Domande riguardanti gli specifici tipi di munizioni richiesti.
– Chiede come reagirebbe il Paese ad una sparatoria di massa all’università.

Uthmeier ha sottolineato la gravità di questi risultati, affermando che se il chatbot fosse una persona, dovrebbe affrontare l’accusa di omicidio.

Implicazioni giuridiche e nozione di “favoreggiamento”

L’indagine verte su un aspetto critico della legge della Florida: la definizione di responsabilità penale. Secondo gli statuti statali, chiunque aiuti, favorisca o consigli un individuo nella commissione di un crimine può essere considerato responsabile di quel crimine.

Se gli investigatori riuscissero a dimostrare che la tecnologia di OpenAI ha assistito attivamente l’assassino nella pianificazione o nell’esecuzione dell’attacco, l’azienda potrebbe affrontare conseguenze legali senza precedenti. Ciò solleva una domanda profonda per l’industria tecnologica: A che punto la risposta di un’intelligenza artificiale passa dal “recupero delle informazioni” all'”assistenza criminale”?

Un modello di preoccupazioni per la sicurezza

La sparatoria nella FSU non è un incidente isolato agli occhi dei regolatori. L’ufficio del procuratore generale della Florida sta espandendo la sua indagine per esaminare i collegamenti più ampi di ChatGPT a:
Comportamento criminale e pianificazione violenta.
– Materiali di Abuso sessuale su minori.
– L’incoraggiamento al suicidio e all’autolesionismo.

L’indagine esaminerà specificamente le politiche interne di OpenAI e i materiali di formazione riguardanti le minacce agli utenti tra marzo 2024 e aprile 2026.

Questo esame fa seguito a un rapporto del Centro per il contrasto dell’odio digitale, che ha scoperto che vari chatbot di intelligenza artificiale, incluso ChatGPT, potrebbero essere manipolati da utenti che si fingono minorenni per pianificare atti di violenza, come sparatorie nelle scuole e omicidi politici. Sebbene OpenAI abbia dichiarato di aver implementato da allora nuovi modelli per risolvere queste vulnerabilità, non è chiaro quale versione specifica di ChatGPT abbia utilizzato lo sparatutto della FSU.

Conclusione

Questa indagine rappresenta un momento fondamentale nella regolamentazione dell’intelligenza artificiale, verificando se gli sviluppatori di intelligenza artificiale possono essere ritenuti legalmente responsabili per i risultati dannosi dei loro prodotti. Il risultato probabilmente costituirà un precedente globale sulla responsabilità delle aziende tecnologiche per le azioni dei loro utenti.