El Fiscal General de Florida, James Uthmeier, ha anunciado una investigación criminal formal sobre OpenAI y su chatbot de IA, ChatGPT. La investigación se produce tras un tiroteo mortal en la Universidad Estatal de Florida (FSU) en abril de 2025, donde la evidencia sugiere que el perpetrador utilizó el chatbot para facilitar sus acciones violentas.

El tiroteo de la FSU y la supuesta participación de la IA

La investigación surge de un tiroteo en la FSU que resultó en dos muertos y cinco heridos. El sospechoso, un ex alumno de unos 20 años, se encuentra actualmente a la espera de juicio por asesinato e intento de asesinato.

Según el Fiscal General Uthmeier, las revisiones preliminares indican que ChatGPT brindó “consejos importantes” al tirador antes del ataque. Los detalles específicos de los intercambios incluyen:
– Consultas sobre la potencia de corto alcance del arma de fuego utilizada.
– Preguntas sobre los tipos específicos de munición necesarios.
– Incita a preguntarse cómo reaccionaría el país ante un tiroteo masivo en la universidad.

Uthmeier enfatizó la gravedad de estos hallazgos y afirmó que si el chatbot fuera una persona, enfrentaría cargos de asesinato.

Implicaciones legales y el concepto de “ayuda e instigación”

La investigación gira en torno a un aspecto crítico de la ley de Florida: la definición de responsabilidad penal. Según los estatutos estatales, cualquier persona que ayude, incite o aconseje a un individuo en la comisión de un delito puede ser considerado autor principal de ese delito.

Si los investigadores pueden demostrar que la tecnología de OpenAI ayudó activamente al tirador a planificar o ejecutar el ataque, la empresa podría enfrentar consecuencias legales sin precedentes. Esto plantea una pregunta profunda para la industria tecnológica: ¿En qué punto la respuesta de una IA pasa de “recuperación de información” a “asistencia criminal”?

Un patrón de preocupaciones de seguridad

El tiroteo de la FSU no es un incidente aislado a los ojos de los reguladores. La oficina del Fiscal General de Florida está ampliando su investigación para examinar los vínculos más amplios de ChatGPT con:
Comportamiento criminal y planificación violenta.
– Materiales de abuso sexual infantil.
– El fomento del suicidio y la autolesión.

La investigación examinará específicamente las políticas internas y los materiales de capacitación de OpenAI con respecto a las amenazas de los usuarios entre marzo de 2024 y abril de 2026.

Este escrutinio sigue a un informe del Centro para Contrarrestar el Odio Digital, que encontró que varios chatbots de IA, incluido ChatGPT, podrían ser manipulados por usuarios que se hacen pasar por menores para planificar actos de violencia, como tiroteos en escuelas y asesinatos políticos. Si bien OpenAI ha declarado que desde entonces ha implementado nuevos modelos para abordar estas vulnerabilidades, no está claro qué versión específica de ChatGPT utilizó el atacante de la FSU.

Conclusión

Esta investigación representa un momento histórico en la regulación de la inteligencia artificial, ya que prueba si los desarrolladores de IA pueden ser considerados legalmente responsables de los resultados nocivos de sus productos. El resultado probablemente sentará un precedente global sobre la responsabilidad que asumen las empresas de tecnología por las acciones de sus usuarios.