Podejrzany o śmiertelną strzelaninę 10 lutego w Tumbler Ridge w Kolumbii Brytyjskiej, Jesse Van Rootselaar, prowadził niepokojące rozmowy z ChatGPT OpenAI w miesiącach poprzedzających atak, wywołując wewnętrzny alarm, który ostatecznie został zignorowany. Według OpenAI Rootselaar szczegółowo opisał sceny przemocy, co uruchomiło automatyczne protokoły bezpieczeństwa i wzbudziło obawy wśród pracowników, że te interakcje mogą zwiastować rzeczywistą przemoc.

Alarm zignorowany przez kierownictwo OpenAI

Pomimo tych obaw kierownictwo OpenAI odmówiło skontaktowania się z organami ścigania, uznając, że działania Ruetselaara nie stwarzają „bezpośredniego i wiarygodnego zagrożenia” wyrządzeniem krzywdy. Konto użytkownika zostało zablokowane, ale nie podjęto żadnych innych działań. Rzeczniczka OpenAI, Kayla Wood, stwierdziła, że ​​analiza logów nie wykazała aktywnego planowania ataku.

„Składamy kondolencje wszystkim dotkniętym tragedią w Tumbler Ridge. Niezwłocznie skontaktowaliśmy się z Królewską Kanadyjską Policją Konną, przekazując informacje na temat tej osoby i korzystania przez nią z ChatGPT, po czym będziemy nadal wspierać ich dochodzenie”.
– Kayla Wood, rzeczniczka OpenAI

Rozpoczyna się tragedia

10 lutego dziewięć osób zginęło, a 27 zostało rannych w najbardziej śmiercionośnej masowej strzelaninie w Kanadzie od 2020 roku. Rootselaara znaleziono martwego na miejscu zdarzenia w szkole średniej Tumbler Ridge w wyniku rany postrzałowej, którą sam sobie zadał. Incydent ponownie wywołał debatę na temat obowiązków firm technologicznych w zakresie interweniowania, gdy użytkownicy wyrażają brutalne zamiary, nawet jeśli te zamiary nie są jawnie przestępcze.

Równowaga pomiędzy prywatnością i bezpieczeństwem

OpenAI twierdzi, że podjęła decyzję w oparciu o politykę równoważenia prywatności użytkowników z bezpieczeństwem publicznym, unikając „nadmiernego zaangażowania organów ścigania”, które mogłoby prowadzić do nieprzewidzianych szkód. Krytycy twierdzą jednak, że podejście firmy może kosztować życie. Sprawa rodzi pytanie, czy platformy AI powinny być zobowiązane do zgłaszania władzom potencjalnych zagrożeń, nawet w przypadku braku konkretnych dowodów na planowaną przemoc.

Strzelanina w Tumbler Ridge uwydatnia trudności w przewidywaniu masowej przemocy i zapobieganiu jej, a także dylematy etyczne, przed którymi stoją firmy technologiczne, radząc sobie z niepokojącymi zachowaniami użytkowników. To wydarzenie stanowi tragiczne przypomnienie, że bierność może mieć śmiertelne konsekwencje, nawet jeśli intencje nie są w pełni ukształtowane.