Le bureau du procureur du comté du Nevada fait l’objet d’une enquête après que des avocats ont allégué que un contenu défectueux généré par l’IA avait été utilisé pour justifier le maintien en détention d’un homme, Kyle Kjoller, 57 ans, avant son procès. L’affaire met en évidence les risques croissants liés au recours à l’intelligence artificielle dans les procédures judiciaires, où la précision est primordiale.
Les allégations
Kjoller a été arrêté pour plusieurs chefs d’accusation de possession illégale d’armes à feu. Son équipe de défense a fait valoir que les accusations ne justifiaient pas une détention provisoire en vertu de la loi californienne. Cependant, l’accusation a déposé un mémoire affirmant le contraire. Les avocats de Kjoller affirment que le document contenait de nombreuses erreurs caractéristiques de l’IA générative, notamment des interprétations erronées de précédents juridiques et des citations fabriquées de toutes pièces.
Erreurs généralisées
Le problème n’était pas isolé. Le même procureur, le procureur de district Jesse Wilson, a déposé des mémoires dans au moins quatre affaires comportant des erreurs similaires. Ces erreurs suggèrent un modèle de dépendance à l’égard d’outils d’IA qui manquent de la précision nécessaire à la documentation juridique. Les implications sont graves : un raisonnement juridique incorrect pourrait conduire à des détentions injustifiées et à des erreurs judiciaires.
Réponse du procureur
Wilson admet ses erreurs mais affirme que l’IA n’a été utilisée que dans un seul des mémoires. Il n’en demeure pas moins que le contenu généré par l’IA a été introduit dans le système juridique sans vérification adéquate, soulevant des questions sur la surveillance et la responsabilité.
Pourquoi c’est important
Cette affaire représente bien plus que la détention d’un seul homme. Cela révèle une faille critique dans la précipitation visant à intégrer l’IA dans la prise de décision à enjeux élevés. L’IA générative est sujette aux « hallucinations » – fabriquer des informations ou déformer les faits. En droit, où l’exactitude n’est pas négociable, cela constitue une menace directe à la régularité de la procédure. L’incident souligne le besoin urgent de mesures de protection et de surveillance humaine lors de l’utilisation de l’IA dans des contextes juridiques.
L’incident soulève une préoccupation plus large : à mesure que l’IA devient plus répandue dans les processus répressifs et judiciaires, le risque d’erreurs systémiques augmente. L’affaire met en évidence le potentiel de l’IA à porter atteinte à l’équité juridique et renforce la nécessité d’une mise en œuvre et d’une validation minutieuses de ces outils.
