O suspeito do tiroteio mortal de 10 de fevereiro em Tumbler Ridge, Colúmbia Britânica, Jesse Van Rootselaar, teve conversas perturbadoras com o ChatGPT da OpenAI meses antes do ataque, levantando alarmes internos que foram finalmente descartados. De acordo com a OpenAI, Rootselaar descreveu cenários violentos em detalhes, desencadeando protocolos de segurança automatizados e suscitando preocupações entre os funcionários de que as interações poderiam prenunciar a violência no mundo real.

Preocupações ignoradas pela liderança da OpenAI

Apesar destas preocupações, a liderança da OpenAI recusou-se a contactar as autoridades, concluindo que a atividade de Rootselaar não representava um “risco iminente e credível” de danos. A empresa baniu a conta do usuário, mas nenhuma ação adicional foi tomada. A porta-voz da OpenAI, Kayla Wood, afirmou que uma revisão dos logs não indicou planejamento ativo para um ataque.

“Nossos pensamentos estão com todos os afetados pela tragédia de Tumbler Ridge. Entramos em contato proativamente com a Polícia Montada Real Canadense com informações sobre o indivíduo e seu uso do ChatGPT, e continuaremos a apoiar sua investigação.”
– Kayla Wood, porta-voz da OpenAI

A tragédia se desenrola

Em 10 de fevereiro, nove pessoas foram mortas e 27 feridas no tiroteio em massa mais mortal no Canadá desde 2020. Rootselaar foi encontrado morto no local da Escola Secundária Tumbler Ridge, aparentemente devido a um ferimento autoinfligido por arma de fogo. O incidente reacendeu o debate sobre a responsabilidade das empresas de tecnologia de intervir quando os utilizadores expressam intenções violentas, mesmo que essas intenções não sejam explicitamente criminosas.

Equilibrando privacidade e segurança

A OpenAI sustenta que a sua decisão foi baseada numa política de equilíbrio entre a privacidade do utilizador e a segurança pública, evitando “o uso excessivamente amplo de referências policiais” que poderiam introduzir danos não intencionais. No entanto, os críticos argumentam que a abordagem da empresa pode ter custado vidas. Este caso levanta questões sobre se as plataformas de IA deveriam ser obrigadas a comunicar potenciais ameaças às autoridades, mesmo na ausência de provas concretas de violência planeada.

O tiroteio em Tumbler Ridge sublinha o desafio de prever e prevenir a violência em massa, bem como os dilemas éticos enfrentados pelas empresas de tecnologia ao lidar com o comportamento perturbador dos utilizadores. O incidente serve como um trágico lembrete de que a inação pode ter consequências mortais, mesmo quando as intenções não estão totalmente formadas.