Podezřelý ze smrtelné střelby z 10. února v Tumbler Ridge v Britské Kolumbii Jesse Van Rootselaar vedl v měsících před útokem znepokojivé rozhovory s ChatGPT společnosti OpenAI, což vyvolalo vnitřní poplach, který byl nakonec ignorován. Podle OpenAI Rootselaar podrobně popsal scény násilí, které spustilo automatické bezpečnostní protokoly a vyvolalo obavy zaměstnanců, že tyto interakce mohou předznamenávat skutečné násilí.

Alarm ignorován správou OpenAI

Navzdory těmto obavám vedení OpenAI odmítlo kontaktovat orgány činné v trestním řízení a rozhodlo se, že Ruetselaarovy kroky nepředstavují „bezprostřední a věrohodnou hrozbu“ újmy. Účet uživatele byl zablokován, ale nebyla provedena žádná další akce. Mluvčí OpenAI Kayla Woodová uvedla, že analýza protokolů neukázala aktivní plánování útoku.

“Vyjadřujeme naši soustrast všem postiženým tragédií Tumbler Ridge. Okamžitě jsme kontaktovali Královskou kanadskou jízdní policii s informacemi o tomto jednotlivci a jeho použití ChatGPT a budeme nadále podporovat jejich vyšetřování.”
– Kayla Wood, mluvčí OpenAI

Tragédie se odehrává

  1. února bylo devět lidí zabito a 27 zraněno při nejsmrtelnější hromadné střelbě v Kanadě od roku 2020. Rootselaar byl nalezen mrtvý na místě činu na střední škole Tumbler Ridge po zjevné střelné ráně, kterou si sám způsobil. Incident znovu podnítil debatu o odpovědnosti technologických společností za zasahování, když uživatelé vyjadřují násilné úmysly, i když tyto úmysly nejsou zjevně trestné.

Vyvážení soukromí a zabezpečení

OpenAI říká, že své rozhodnutí učinilo na základě zásady vyvažování soukromí uživatelů s veřejnou bezpečností a vyhýbání se „nadměrnému zapojení donucovacích orgánů“, které by mohlo vést k nepředvídaným škodám. Kritici ale tvrdí, že přístup společnosti by mohl stát životy. Případ vyvolává otázku, zda by platformy umělé inteligence měly mít povinnost hlásit úřadům potenciální hrozby, i když neexistují konkrétní důkazy o plánovaném násilí.

Snímek Tumbler Ridge poukazuje na obtížnost předvídat a předcházet masovému násilí, stejně jako na etická dilemata, kterým technologické společnosti čelí, když se potýkají s problematickým chováním uživatelů. Tento incident slouží jako tragická připomínka toho, že nečinnost může mít smrtelné následky, i když úmysly nejsou plně vytvořeny.