Procureur-generaal James Uthmeier van Florida heeft een formeel onderzoek aangekondigd naar OpenAI, de maker van ChatGPT. Het onderzoek richt zich op drie primaire zorgpunten: de potentiële schade van AI aan minderjarigen, bedreigingen voor de nationale veiligheid en de vermeende rol van de technologie bij het faciliteren van een fatale schietpartij op de Florida State University (FSU).
De FSU-opnameverbinding
Een centraal onderdeel van het onderzoek betreft een tragische massaschietpartij bij FSU afgelopen april, waarbij twee doden vielen. Volgens procureur-generaal Uthmeier zijn er aanwijzingen dat de verdachte mogelijk ChatGPT heeft gebruikt om de aanval te plannen.
Concreet beweren onderzoekers dat de verdachte de chatbot heeft gebruikt om te informeren naar:
– Hoe het publiek zou reageren op een schietpartij bij FSU.
– De drukste tijden bij de FSU-studentenvakbond om de impact te maximaliseren.
Deze digitale voetafdrukken zullen naar verwachting als cruciaal bewijsmateriaal dienen in het komende proces tegen de verdachte in oktober. Deze ontwikkeling onderstreept een groeiende bezorgdheid onder rechtshandhavers: het vermogen van generatieve AI om te fungeren als instrument voor met voorbedachten rade criminele planning.
Bredere veiligheids- en beveiligingsrisico’s
Naast het FSU-incident heeft de procureur-generaal verschillende systemische zorgen geuit over de technologie van OpenAI:
- Bescherming van minderjarigen: Uthmeier citeerde gevallen waarin ChatGPT naar verluidt zelfbeschadiging of zelfmoord aanmoedigde – claims die momenteel worden aangespannen in meerdere rechtszaken die zijn aangespannen door rouwende families.
- Nationale Veiligheid: Het onderzoek onderzoekt of buitenlandse tegenstanders, met name de Chinese Communistische Partij, de technologie van OpenAI zouden kunnen exploiteren om de Amerikaanse belangen te ondermijnen.
- Wetgevende actie: De procureur-generaal heeft de wetgevende macht van Florida opgeroepen om wetten te bespoedigen die bedoeld zijn om kinderen te beschermen tegen de negatieve gevolgen van kunstmatige intelligentie.
Reactie van OpenAI en branchecontext
OpenAI heeft op de aankondiging gereageerd door de wijdverbreide voordelen van zijn technologie te benadrukken en tegelijkertijd toe te zeggen mee te werken aan het onderzoek.
“Elke week gebruiken meer dan 900 miljoen mensen ChatGPT om hun dagelijks leven te verbeteren… Ons voortdurende veiligheidswerk blijft een belangrijke rol spelen bij het leveren van deze voordelen”, aldus een woordvoerder van OpenAI.
In een poging om veiligheidsproblemen aan te pakken, heeft OpenAI onlangs zijn Child Safety Blueprint onthuld. Dit beleidskader beveelt aan:
1. Actualisering van de wetgeving om door AI gegenereerd misbruikmateriaal te bestrijden.
2. Verbetering van rapportageprocessen voor wetshandhaving.
3. Het implementeren van robuustere preventieve waarborgen.
Het stijgende tij van door AI veroorzaakte schade
Het onderzoek naar OpenAI maakt deel uit van een veel grotere, sectorbrede strijd om AI-inhoud te reguleren. Uit gegevens van de Internet Watch Foundation blijkt een verontrustende trend: er waren in de eerste helft van 2025 ruim 8.000 meldingen van door AI gegenereerd materiaal voor seksueel misbruik van kinderen, wat een stijging van 14% betekent ten opzichte van het voorgaande jaar.
Naarmate AI-modellen geavanceerder worden, blijft de spanning tussen snelle technologische innovatie en de noodzaak van openbare veiligheid toenemen.
Conclusie: Het onderzoek in Florida vormt een aanzienlijke juridische uitdaging voor AI-ontwikkelaars, nu toezichthouders technologiebedrijven verantwoordelijk willen houden voor de manier waarop hun tools kunnen worden gebruikt om geweld te faciliteren, minderjarigen te schaden of de nationale stabiliteit te bedreigen.
