Il sospettato della sparatoria mortale del 10 febbraio a Tumbler Ridge, nella Columbia Britannica, Jesse Van Rootselaar, aveva avuto conversazioni inquietanti con ChatGPT di OpenAI mesi prima dell’attacco, sollevando allarmi interni che alla fine sono stati respinti. Secondo OpenAI, Rootselaar ha descritto dettagliatamente scenari violenti, innescando protocolli di sicurezza automatizzati e suscitando preoccupazioni tra i dipendenti sul fatto che le interazioni potrebbero prefigurare la violenza nel mondo reale.

Preoccupazioni ignorate dalla leadership di OpenAI

Nonostante queste preoccupazioni, la leadership di OpenAI ha rifiutato di contattare le forze dell’ordine, concludendo che l’attività di Rootselaar non rappresentava un “rischio imminente e credibile” di danno. L’azienda ha bannato l’account dell’utente, ma non è stata intrapresa alcuna ulteriore azione. La portavoce di OpenAI Kayla Wood ha dichiarato che una revisione dei registri non indicava una pianificazione attiva per un attacco.

“I nostri pensieri sono rivolti a tutti coloro che sono stati colpiti dalla tragedia di Tumbler Ridge. Abbiamo contattato in modo proattivo la Royal Canadian Mounted Police fornendo informazioni sull’individuo e sul suo utilizzo di ChatGPT, e continueremo a supportare le loro indagini.”
– Kayla Wood, portavoce di OpenAI

La tragedia si svolge

Il 10 febbraio, nove persone sono state uccise e 27 ferite nella sparatoria di massa più mortale avvenuta in Canada dal 2020. Rootselaar è stato trovato morto sulla scena della Tumbler Ridge Secondary School, apparentemente per una ferita da arma da fuoco autoinflitta. L’incidente ha riacceso il dibattito sulla responsabilità delle aziende tecnologiche di intervenire quando gli utenti esprimono intenzioni violente, anche se tali intenzioni non sono esplicitamente criminali.

Bilanciare privacy e sicurezza

OpenAI sostiene che la sua decisione si basava su una politica di bilanciamento della privacy degli utenti con la sicurezza pubblica, evitando “un uso eccessivamente ampio di riferimenti alle forze dell’ordine” che potrebbero introdurre danni involontari. Tuttavia, i critici sostengono che l’approccio dell’azienda potrebbe costare vite umane. Questo caso solleva la questione se le piattaforme di intelligenza artificiale debbano essere tenute a segnalare potenziali minacce alle autorità, anche in assenza di prove concrete di violenza pianificata.

La sparatoria a Tumbler Ridge sottolinea la sfida di prevedere e prevenire la violenza di massa, nonché i dilemmi etici affrontati dalle aziende tecnologiche quando hanno a che fare con il comportamento disturbante degli utenti. L’incidente serve a ricordare tragicamente che l’inazione può avere conseguenze mortali, anche quando le intenzioni non sono pienamente formate.