Le suspect de la fusillade meurtrière du 10 février à Tumbler Ridge, en Colombie-Britannique, Jesse Van Rootselaar, s’est engagé dans des conversations troublantes avec ChatGPT d’OpenAI des mois avant l’attaque, déclenchant des alarmes internes qui ont finalement été écartées. Selon OpenAI, Rootselaar a décrit en détail des scénarios violents, déclenchant des protocoles de sécurité automatisés et suscitant des inquiétudes parmi les employés quant au fait que les interactions pourraient préfigurer une violence réelle.
Préoccupations ignorées par les dirigeants d’OpenAI
Malgré ces inquiétudes, les dirigeants d’OpenAI ont refusé de contacter les forces de l’ordre, concluant que l’activité de Rootselaar ne représentait pas un « risque imminent et crédible » de préjudice. L’entreprise a interdit le compte de l’utilisateur, mais aucune autre mesure n’a été prise. La porte-parole d’OpenAI, Kayla Wood, a déclaré qu’un examen des journaux n’indiquait pas une planification active d’une attaque.
“Nos pensées vont à toutes les personnes touchées par la tragédie de Tumbler Ridge. Nous avons contacté de manière proactive la Gendarmerie royale du Canada avec des informations sur l’individu et son utilisation de ChatGPT, et nous continuerons de soutenir son enquête. ”
– Kayla Wood, porte-parole d’OpenAI
La tragédie se déroule
Le 10 février, neuf personnes ont été tuées et 27 blessées lors de la fusillade de masse la plus meurtrière au Canada depuis 2020. Rootselaar a été retrouvé mort sur les lieux de l’école secondaire Tumbler Ridge, apparemment des suites d’une blessure par balle auto-infligée. L’incident a relancé le débat sur la responsabilité des entreprises technologiques d’intervenir lorsque les utilisateurs expriment des intentions violentes, même si ces intentions ne sont pas explicitement criminelles.
Équilibrer confidentialité et sécurité
OpenAI maintient que sa décision était basée sur une politique visant à équilibrer la vie privée des utilisateurs et la sécurité publique, en évitant « un recours trop large aux références des forces de l’ordre » qui pourraient causer des dommages involontaires. Cependant, les critiques affirment que l’approche adoptée par l’entreprise pourrait coûter des vies. Cette affaire soulève la question de savoir si les plateformes d’IA devraient être tenues de signaler les menaces potentielles aux autorités, même en l’absence de preuves concrètes de violences planifiées.
La fusillade de Tumbler Ridge souligne le défi que représente la prévision et la prévention de la violence de masse, ainsi que les dilemmes éthiques auxquels sont confrontées les entreprises technologiques face au comportement dérangeant des utilisateurs. Cet incident nous rappelle tragiquement que l’inaction peut avoir des conséquences mortelles, même lorsque les intentions ne sont pas encore pleinement formulées.
