Der Verdächtige der tödlichen Schießerei am 10. Februar in Tumbler Ridge, British Columbia, Jesse Van Rootselaar, führte Monate vor dem Angriff verstörende Gespräche mit ChatGPT von OpenAI und löste interne Alarme aus, die letztendlich abgewiesen wurden. Laut OpenAI beschrieb Rootselaar ausführlich Gewaltszenarien, die automatisierte Sicherheitsprotokolle auslösten und bei den Mitarbeitern Bedenken hervorriefen, dass die Interaktionen Vorboten realer Gewalt sein könnten.
Bedenken werden von der OpenAI-Führung ignoriert
Trotz dieser Bedenken lehnte die Führung von OpenAI es ab, die Strafverfolgungsbehörden zu kontaktieren, und kam zu dem Schluss, dass die Aktivitäten von Rootselaar kein „unmittelbares und glaubwürdiges Risiko“ eines Schadens darstellten. Das Unternehmen hat das Konto des Benutzers gesperrt, es wurden jedoch keine weiteren Maßnahmen ergriffen. OpenAI-Sprecherin Kayla Wood erklärte, dass eine Überprüfung der Protokolle keine Hinweise auf eine aktive Planung eines Angriffs ergeben habe.
„Unsere Gedanken sind bei allen, die von der Tumbler Ridge-Tragödie betroffen sind. Wir haben uns proaktiv an die Royal Canadian Mounted Police gewandt, um Informationen über die Person und ihre Nutzung von ChatGPT zu erhalten, und wir werden ihre Ermittlungen weiterhin unterstützen.“
– Kayla Wood, OpenAI-Sprecherin
Die Tragödie nimmt ihren Lauf
Am 10. Februar wurden bei der tödlichsten Massenschießerei in Kanada seit 2020 neun Menschen getötet und 27 verletzt. Rootselaar wurde am Tatort der Tumbler Ridge Secondary School tot aufgefunden, offenbar an einer selbst zugefügten Schusswunde. Der Vorfall hat die Debatte über die Verantwortung von Technologieunternehmen, einzugreifen, wenn Benutzer gewalttätige Absichten äußern, neu entfacht, auch wenn diese Absichten nicht ausdrücklich kriminell sind.
Balance zwischen Privatsphäre und Sicherheit
OpenAI behauptet, dass seine Entscheidung auf einer Politik beruhte, die darauf abzielte, die Privatsphäre der Nutzer mit der öffentlichen Sicherheit in Einklang zu bringen und eine „übermäßig weitreichende Verwendung von Verweisen auf Strafverfolgungsbehörden“ zu vermeiden, die zu unbeabsichtigtem Schaden führen könnte. Kritiker argumentieren jedoch, dass das Vorgehen des Unternehmens möglicherweise Menschenleben gekostet hat. Dieser Fall wirft die Frage auf, ob KI-Plattformen verpflichtet werden sollten, potenzielle Bedrohungen den Behörden zu melden, auch wenn keine konkreten Beweise für geplante Gewalt vorliegen.
Die Schießerei in Tumbler Ridge unterstreicht die Herausforderung, Massengewalt vorherzusagen und zu verhindern, sowie die ethischen Dilemmata, mit denen Technologieunternehmen im Umgang mit störendem Nutzerverhalten konfrontiert sind. Der Vorfall ist eine tragische Erinnerung daran, dass Untätigkeit tödliche Folgen haben kann, selbst wenn die Absichten noch nicht vollständig ausgereift sind.
