El sospechoso del mortal tiroteo del 10 de febrero en Tumbler Ridge, Columbia Británica, Jesse Van Rootselaar, mantuvo conversaciones inquietantes con ChatGPT de OpenAI meses antes del ataque, generando alarmas internas que finalmente fueron descartadas. Según OpenAI, Rootselaar describió escenarios violentos en detalle, activando protocolos de seguridad automatizados y generando preocupación entre los empleados de que las interacciones podrían presagiar violencia en el mundo real.
Preocupaciones ignoradas por el liderazgo de OpenAI
A pesar de estas preocupaciones, el liderazgo de OpenAI se negó a contactar a las autoridades y concluyó que la actividad de Rootselaar no representaba un “riesgo inminente y creíble” de daño. La empresa prohibió la cuenta del usuario, pero no se tomaron más medidas. La portavoz de OpenAI, Kayla Wood, afirmó que una revisión de los registros no indicaba una planificación activa para un ataque.
“Nuestros pensamientos están con todos los afectados por la tragedia de Tumbler Ridge. Nos comunicamos de manera proactiva con la Real Policía Montada de Canadá con información sobre el individuo y su uso de ChatGPT, y continuaremos apoyando su investigación”.
– Kayla Wood, portavoz de OpenAI
La tragedia se desarrolla
El 10 de febrero, nueve personas murieron y 27 resultaron heridas en el tiroteo masivo más mortífero en Canadá desde 2020. Rootselaar fue encontrado muerto en el lugar de la escuela secundaria Tumbler Ridge, aparentemente por una herida de bala autoinfligida. El incidente ha reavivado el debate sobre la responsabilidad de las empresas de tecnología de intervenir cuando los usuarios expresan intenciones violentas, incluso si esas intenciones no son explícitamente criminales.
Equilibrio entre privacidad y seguridad
OpenAI sostiene que su decisión se basó en una política de equilibrar la privacidad del usuario con la seguridad pública, evitando “un uso demasiado amplio de referencias policiales” que podrían introducir daños no deseados. Sin embargo, los críticos argumentan que el enfoque de la empresa puede haber costado vidas. Este caso plantea dudas sobre si se debería exigir a las plataformas de inteligencia artificial que informen sobre posibles amenazas a las autoridades, incluso en ausencia de pruebas concretas de violencia planificada.
El tiroteo en Tumbler Ridge subraya el desafío de predecir y prevenir la violencia masiva, así como los dilemas éticos que enfrentan las empresas de tecnología cuando se enfrentan al comportamiento perturbador de los usuarios. El incidente sirve como trágico recordatorio de que la inacción puede tener consecuencias mortales, incluso cuando las intenciones no están plenamente formadas.






























