La fiscalía del condado de Nevada está bajo escrutinio después de que los abogados alegaran que se utilizó contenido defectuoso generado por IA para justificar mantener detenido a un hombre, Kyle Kjoller, de 57 años, antes del juicio. El caso resalta los crecientes riesgos de depender de la inteligencia artificial en los procedimientos legales, donde la precisión es primordial.
Las acusaciones
Kjoller fue arrestado por múltiples cargos de posesión ilegal de armas. Su equipo defensor argumentó que los cargos no justificaban la prisión preventiva según la ley de California. Sin embargo, la fiscalía presentó un escrito argumentando lo contrario. Los abogados de Kjoller afirman que el documento contenía numerosos errores característicos de la IA generativa, incluidas malas interpretaciones de precedentes legales y citas inventadas.
Errores generalizados
El problema no fue aislado. El mismo fiscal, el fiscal de distrito Jesse Wilson, presentó escritos en al menos cuatro casos con errores similares. Estos errores sugieren un patrón de dependencia de herramientas de inteligencia artificial que carecen de la precisión necesaria para la documentación legal. Las implicaciones son graves: un razonamiento jurídico incorrecto podría dar lugar a detenciones injustificadas y errores judiciales.
Respuesta del Fiscal
Wilson admite errores, pero afirma que se utilizó IA solo en uno de los escritos. Sin embargo, el hecho es que el contenido generado por IA se introdujo en el sistema legal sin una verificación adecuada, lo que plantea dudas sobre la supervisión y la rendición de cuentas.
Por qué esto es importante
Este caso es más que la detención de un hombre. Expone una falla crítica en la prisa por integrar la IA en la toma de decisiones de alto riesgo. La IA generativa es propensa a sufrir “alucinaciones”: fabricar información o tergiversar hechos. En derecho, cuando la precisión no es negociable, esto plantea una amenaza directa al debido proceso. El incidente subraya la necesidad urgente de salvaguardias y supervisión humana cuando se utiliza la IA en contextos legales.
El incidente plantea una preocupación más amplia: a medida que la IA se vuelve más frecuente en los procesos judiciales y de aplicación de la ley, aumenta el riesgo de errores sistémicos. El caso destaca el potencial de la IA para socavar la equidad legal y refuerza la necesidad de una implementación y validación cuidadosas de estas herramientas.
