De verdachte van de dodelijke schietpartij op 10 februari in Tumbler Ridge, British Columbia, Jesse Van Rootselaar, voerde maanden vóór de aanval verontrustende gesprekken met OpenAI’s ChatGPT, waardoor interne alarmen ontstonden die uiteindelijk werden afgewezen. Volgens OpenAI beschreef Rootselaar gewelddadige scenario’s in detail, waardoor geautomatiseerde veiligheidsprotocollen in gang werden gezet en bij werknemers de bezorgdheid ontstond dat de interacties een voorbode zouden kunnen zijn van geweld in de echte wereld.
Zorgen genegeerd door OpenAI-leiderschap
Ondanks deze zorgen weigerde het OpenAI-management contact op te nemen met de wetshandhaving, omdat ze concludeerden dat de activiteit van Rootselaar geen “dreigend en geloofwaardig risico” op schade inhield. Het bedrijf verbood het account van de gebruiker, maar er werd geen verdere actie ondernomen. OpenAI-woordvoerder Kayla Wood verklaarde dat een beoordeling van de logboeken niet duidde op een actieve planning voor een aanval.
“Onze gedachten zijn bij iedereen die getroffen is door de tragedie van Tumbler Ridge. We hebben proactief contact opgenomen met de Royal Canadian Mounted Police met informatie over het individu en hun gebruik van ChatGPT, en we zullen hun onderzoek blijven ondersteunen.”
– Kayla Wood, woordvoerder van OpenAI
De tragedie ontvouwt zich
Op 10 februari werden negen mensen gedood en 27 gewond bij de dodelijkste massaschietpartij in Canada sinds 2020. Rootselaar werd dood aangetroffen op de plaats van de Tumbler Ridge Secondary School, blijkbaar als gevolg van een zelf toegebrachte schotwond. Het incident heeft het debat nieuw leven ingeblazen over de verantwoordelijkheid van technologiebedrijven om in te grijpen wanneer gebruikers gewelddadige bedoelingen uiten, zelfs als die bedoelingen niet expliciet crimineel zijn.
Evenwicht tussen privacy en veiligheid
OpenAI beweert dat zijn beslissing gebaseerd was op een beleid waarbij de privacy van gebruikers in evenwicht werd gebracht met de openbare veiligheid, waarbij “een al te breed gebruik van verwijzingen door rechtshandhavingsinstanties” werd vermeden, wat onbedoelde schade zou kunnen veroorzaken. Critici beweren echter dat de aanpak van het bedrijf mogelijk levens heeft gekost. Deze zaak roept vragen op over de vraag of AI-platforms verplicht moeten worden potentiële bedreigingen aan de autoriteiten te melden, zelfs als er geen concreet bewijs is van gepland geweld.
De schietpartij in Tumbler Ridge onderstreept de uitdaging van het voorspellen en voorkomen van massaal geweld, evenals de ethische dilemma’s waarmee technologiebedrijven worden geconfronteerd bij het omgaan met storend gebruikersgedrag. Het incident dient als een tragische herinnering dat nietsdoen dodelijke gevolgen kan hebben, zelfs als de bedoelingen niet volledig zijn gevormd.
