Floridský generální prokurátor James Utmeyer oznámil zahájení formálního vyšetřování OpenAI, tvůrce ChatGPT. Vyšetřování se soustředí na tři hlavní oblasti: potenciální poškození nezletilých umělou inteligencí, ohrožení národní bezpečnosti a údajnou roli technologie ve smrtelném incidentu se střelbou na Floridské státní univerzitě (FSU).

Připojení k FSU natáčení

Středobodem vyšetřování je tragická střelba na FSU loni v dubnu, která si vyžádala dva lidské životy. Podle generálního prokurátora Utmeyera dostupné důkazy naznačují, že podezřelý mohl použít ChatGPT k plánování útoku.

Vyšetřovatelé zejména tvrdí, že podezřelý použil chatbota, aby zjistil:
– Jak bude veřejnost reagovat na střelbu FSU.
– V kolik hodin je ve studentské unii FSU nejvíce lidí, aby způsobili maximální škody?

Očekává se, že tyto „digitální stopy“ se stanou klíčovým důkazem v nadcházejícím soudním procesu s podezřelým v říjnu. Incident poukazuje na rostoucí obavy orgánů činných v trestním řízení ohledně schopnosti generativní umělé inteligence sloužit jako nástroj pro záměrné plánování zločinu.**

Širší bezpečnostní rizika

Kromě incidentu FSU generální prokurátor zdůraznil řadu systémových problémů spojených s technologiemi OpenAI:

  • Ochrana nezletilých: Utmeyer citoval případy, kdy ChatGPT údajně nabádal k sebepoškozování nebo sebevraždě, což jsou obvinění, která v současné době probíhají v několika soudních sporech podaných rodinami obětí.
  • Národní bezpečnost: Vyšetřování se zabývá tím, zda by zahraniční protivníci, zejména Komunistická strana Číny, mohli využít technologii OpenAI k podkopání zájmů USA.
  • Legislativní opatření: Generální prokurátor vyzval floridský zákonodárný sbor, aby urychlil zákony na ochranu dětí před negativními dopady umělé inteligence.

Odezva OpenAI a kontext odvětví

OpenAI v reakci na toto prohlášení zdůraznila široké výhody své technologie a vyjádřila ochotu spolupracovat při vyšetřování.

„Každý týden používá ChatGPT více než 900 milionů lidí ke zlepšení svého každodenního života… Naše pokračující bezpečnostní úsilí hraje i nadále důležitou roli při realizaci těchto výhod,“ řekl mluvčí OpenAI.

Ve snaze řešit bezpečnostní problémy OpenAI nedávno představila svůj Child Safety Blueprint. Tento koncept zahrnuje:
1. Aktualizovat právní předpisy pro boj proti materiálům se zneužíváním dětí generovaným umělou inteligencí.
2. Zlepšit procesy podávání zpráv pro orgány činné v trestním řízení.
3. Zavedení spolehlivějších preventivních ochranných opatření.

Stoupající vlna škod AI

Recenze OpenAI je součástí většího celoodvětvového boje za regulaci obsahu generovaného umělou inteligencí. Údaje od Internet Watch Foundation odhalily alarmující trend: v první polovině roku 2025 bylo hlášeno více než 8 000 zpráv o materiálu pro sexuální zneužívání dětí (CSAM) generovaném umělou inteligencí, což je o 14 % více než v předchozím roce.

Jak jsou modely umělé inteligence stále sofistikovanější, napětí mezi rychlým technologickým pokrokem a potřebou zajistit veřejnou bezpečnost stále roste.


Závěr: Vyšetřování na Floridě představuje pro vývojáře umělé inteligence velkou právní výzvu, protože regulační orgány se snaží pohnat technologické společnosti k odpovědnosti za to, jak mohou být jejich nástroje použity k páchání násilí, ubližování dětem nebo ohrožování národní stability.