L’ufficio del procuratore della contea del Nevada è sotto esame dopo che gli avvocati hanno affermato che contenuti difettosi generati dall’intelligenza artificiale sono stati utilizzati per giustificare la detenzione di un uomo, Kyle Kjoller, 57 anni, prima del processo. Il caso evidenzia i crescenti rischi di fare affidamento sull’intelligenza artificiale nei procedimenti legali, dove l’accuratezza è fondamentale.
Le accuse
Kjoller è stato arrestato con molteplici accuse di possesso illegale di armi. La sua squadra di difesa ha sostenuto che le accuse non giustificavano la detenzione preventiva ai sensi della legge della California. La procura però ha depositato memoria sostenendo il contrario. Gli avvocati di Kjoller sostengono che il documento conteneva numerosi errori caratteristici dell’intelligenza artificiale generativa, comprese interpretazioni errate di precedenti legali e citazioni inventate.
Errori diffusi
Il problema non era isolato. Lo stesso pubblico ministero, il procuratore distrettuale Jesse Wilson, ha presentato memorie in almeno quattro casi con errori simili. Questi errori suggeriscono un modello di affidamento agli strumenti di intelligenza artificiale che mancano della precisione necessaria per la documentazione legale. Le implicazioni sono gravi: un ragionamento giuridico errato potrebbe portare a detenzioni errate e errori giudiziari.
La risposta del Pubblico Ministero
Wilson ammette gli errori ma sostiene che l’intelligenza artificiale è stata utilizzata solo in uno dei brief. Tuttavia, resta il fatto che i contenuti generati dall’intelligenza artificiale sono stati introdotti nel sistema legale senza un’adeguata verifica, sollevando dubbi sulla supervisione e sulla responsabilità.
Perché è importante
Questo caso è più della semplice detenzione di un uomo. Evidenzia un difetto critico nella fretta di integrare l’intelligenza artificiale nei processi decisionali ad alto rischio. L’intelligenza artificiale generativa è soggetta ad “allucinazioni”, ovvero fabbrica informazioni o travisa i fatti. In diritto, dove l’accuratezza non è negoziabile, ciò rappresenta una minaccia diretta al giusto processo. L’incidente sottolinea l’urgente necessità di tutele e supervisione umana quando si utilizza l’intelligenza artificiale in contesti legali.
L’incidente solleva una preoccupazione più ampia: man mano che l’intelligenza artificiale diventa più diffusa nelle forze dell’ordine e nei processi giudiziari, aumenta il rischio di errori sistemici. Il caso evidenzia il potenziale dell’intelligenza artificiale di minare l’equità legale e rafforza la necessità di un’attenta implementazione e convalida di questi strumenti.
