Procureur-generaal James Uthmeier van Florida heeft een formeel strafrechtelijk onderzoek aangekondigd naar OpenAI en zijn AI-chatbot, ChatGPT. Het onderzoek volgt op een dodelijke schietpartij op de Florida State University (FSU) in april 2025, waarbij er aanwijzingen zijn dat de dader de chatbot heeft gebruikt om zijn gewelddadige acties te vergemakkelijken.

De FSU-schietpartij en vermeende AI-betrokkenheid

Het onderzoek komt voort uit een schietpartij bij FSU waarbij twee doden en vijf gewonden vielen. De verdachte, een oud-student van begin twintig, wacht momenteel op zijn proces wegens moord en poging tot moord.

Volgens procureur-generaal Uthmeier blijkt uit voorlopige beoordelingen dat ChatGPT voorafgaand aan de aanval “belangrijk advies” aan de schutter heeft gegeven. Specifieke details van de uitwisselingen zijn onder meer:
– Vragen over het korte bereik van het gebruikte vuurwapen.
– Vragen over de specifieke soorten munitie die vereist zijn.
– Vragen met de vraag hoe het land zou reageren op een massale schietpartij op de universiteit.

Uthmeier benadrukte de ernst van deze bevindingen en stelde dat als de chatbot een persoon zou zijn, hij zou worden aangeklaagd voor moord.

Juridische implicaties en het concept van “hulp en medewerking”

Het onderzoek draait om een cruciaal aspect van de Florida-wetgeving: de definitie van strafrechtelijke aansprakelijkheid. Volgens de staatsstatuten kan iedereen die een individu helpt, aanmoedigt of adviseert bij het plegen van een misdrijf, worden beschouwd als de opdrachtgever van dat misdrijf.

Als onderzoekers kunnen bewijzen dat de technologie van OpenAI de schutter actief heeft geholpen bij het plannen of uitvoeren van de aanval, zou het bedrijf met ongekende juridische gevolgen te maken kunnen krijgen. Dit roept een diepgaande vraag op voor de technologie-industrie: Op welk punt gaat de reactie van een AI over van ‘het ophalen van informatie’ naar ‘criminele hulp’?

Een patroon van veiligheidsproblemen

De FSU-schietpartij is in de ogen van toezichthouders geen op zichzelf staand incident. Het kantoor van de procureur-generaal van Florida breidt zijn onderzoek uit om de bredere links van ChatGPT te onderzoeken naar:
Crimineel gedrag en gewelddadige planning.
materiaal over seksueel kindermisbruik.
– Het aanmoedigen van zelfmoord en zelfbeschadiging.

Het onderzoek zal specifiek het interne beleid en trainingsmateriaal van OpenAI met betrekking tot gebruikersbedreigingen tussen maart 2024 en april 2026 onder de loep nemen.

Dit onderzoek volgt op een rapport van het Center for Countering Digital Hate, waaruit bleek dat verschillende AI-chatbots – waaronder ChatGPT – konden worden gemanipuleerd door gebruikers die zich voordeden als minderjarigen om gewelddaden te plannen, zoals schietpartijen op scholen en politieke moorden. Hoewel OpenAI heeft verklaard dat het sindsdien nieuwe modellen heeft geïmplementeerd om deze kwetsbaarheden aan te pakken, blijft het onduidelijk welke specifieke versie van ChatGPT de FSU-shooter heeft gebruikt.

Conclusie

Dit onderzoek vertegenwoordigt een mijlpaal in de regulering van kunstmatige intelligentie, waarbij wordt getest of AI-ontwikkelaars juridisch verantwoordelijk kunnen worden gehouden voor de schadelijke resultaten van hun producten. De uitkomst zal waarschijnlijk een mondiaal precedent scheppen voor de mate waarin technologiebedrijven aansprakelijk zijn voor de daden van hun gebruikers.