Floridský generální prokurátor James Utmeyer oznámil zahájení formálního trestního vyšetřování OpenAI a jejího chatbota ChatGPT. Vyšetřování bylo zahájeno po smrtelné střelbě na Floridské státní univerzitě (FSU) v dubnu 2025, kdy důkazy naznačovaly, že pachatel použil chatbota k plánování svých násilných útoků.
Střelba FSU a údajné zapojení AI
Vyšetřování vychází ze střelby v FSU, která si vyžádala dva mrtvé a pět dalších zraněných. Podezřelý, bývalý student ve věku 20 let, v současné době čeká na soud s obviněním z vraždy a pokusu o vraždu.
Generální prokurátor Utmeyer uvedl, že předběžná analýza ukazuje, že ChatGPT poskytl střelci před útokem „významnou radu“. Korespondence obsahovala zejména:
– Dotazy na účinnost střelných zbraní na krátké vzdálenosti.
– Otázky týkající se konkrétních potřebných typů munice.
– Dotazy, jaká bude reakce země na masovou střelbu na univerzitě.
Utmeyer zdůraznil závažnost těchto zjištění a řekl, že pokud by byl chatbot člověk, byl by obviněn z vraždy.
Právní důsledky a koncept „spoluviníka“
Vyšetřování se soustředí na kritický aspekt floridského práva: stanovení trestní odpovědnosti. Podle státního práva může být každý, kdo pomáhá, pomáhá nebo radí osobě spáchat trestný čin, považován za spolupachatele tohoto trestného činu.
Pokud budou vyšetřovatelé schopni prokázat, že technologie OpenAI aktivně pomáhala střelci při plánování nebo provedení útoku, mohla by společnost čelit bezprecedentním právním důsledkům. To představuje pro technologický průmysl vážnou otázku: V jakém bodě se reakce umělé inteligence mění od „poskytování informací“ k „pomoci v trestním řízení“?
Bezpečnostní problémy jako systémový problém
Z regulačního hlediska není střelba FSU izolovaným incidentem. Úřad generálního prokurátora na Floridě rozšiřuje rozsah svého vyšetřování, aby prozkoumal širší vazby ChatGPT na:
– Kriminální chování a plánování násilí.
– Materiály se sexuálním zneužíváním dětí.
– Podněcování k sebevraždě a sebepoškozování.
Vyšetřování prozkoumá interní zásady OpenAI a školicí materiály týkající se uživatelských hrozeb mezi březnem 2024 a dubnem 2026.
Recenze přichází v návaznosti na zprávu Centra pro boj proti digitální nenávisti (CCDH), která tvrdila, že různé chatboty s umělou inteligencí – včetně ChatGPT – by mohly být manipulovány uživateli vydávajícími se za nezletilé, aby plánovali násilné činy, jako jsou střelby ve školách a politické vraždy. I když OpenAI uvedlo, že od té doby implementovalo nové modely pro řešení těchto zranitelností, zatím není jasné, kterou verzi ChatGPT útočník z FSU použil.
Závěr
Vyšetřování bude znamenat zlom v regulaci umělé inteligence a otestuje, zda vývojáři AI mohou nést právní odpovědnost za škodlivé výsledky jejich produktů. Výsledek případu pravděpodobně vytvoří globální precedens pro to, jak jsou technologické společnosti zodpovědné za činy svých uživatelů.





























