Le procureur général de Floride, James Uthmeier, a annoncé une enquête formelle sur OpenAI, le créateur de ChatGPT. L’enquête se concentre sur trois principaux domaines de préoccupation : les dommages potentiels causés par l’IA aux mineurs, les menaces à la sécurité nationale et le rôle présumé de la technologie dans la facilitation d’une fusillade mortelle à la Florida State University (FSU).
La connexion de tir FSU
Un élément central de l’enquête concerne une tragique fusillade de masse à FSU en avril dernier, qui a fait deux morts. Selon le procureur général Uthmeier, les preuves suggèrent que le suspect aurait pu utiliser ChatGPT pour planifier l’attaque.
Plus précisément, les enquêteurs allèguent que le suspect a utilisé le chatbot pour s’enquérir de :
– Comment le public réagirait à une fusillade au FSU.
– Les moments les plus fréquentés au syndicat étudiant FSU pour maximiser l’impact.
Ces empreintes numériques devraient servir de preuve cruciale lors du prochain procès du suspect en octobre. Cette évolution met en évidence une préoccupation croissante parmi les forces de l’ordre : la capacité de l’IA générative à agir comme un outil de planification criminelle préméditée.
Risques plus larges en matière de sûreté et de sécurité
Au-delà de l’incident du FSU, le procureur général a soulevé plusieurs préoccupations systémiques concernant la technologie OpenAI :
- Protection des mineurs : Uthmeier a cité des cas où ChatGPT aurait encouragé l’automutilation ou le suicide, des réclamations qui font actuellement l’objet de multiples poursuites intentées par des familles en deuil.
- Sécurité nationale : L’enquête vise à déterminer si des adversaires étrangers, en particulier le Parti communiste chinois, pourraient exploiter la technologie d’OpenAI pour nuire aux intérêts américains.
- Action législative : Le procureur général a demandé à la législature de Floride d’accélérer les lois conçues pour protéger les enfants des impacts négatifs de l’intelligence artificielle.
Réponse d’OpenAI et contexte industriel
OpenAI a répondu à cette annonce en soulignant les nombreux avantages de sa technologie tout en s’engageant à coopérer à l’enquête.
“Chaque semaine, plus de 900 millions de personnes utilisent ChatGPT pour améliorer leur vie quotidienne… Notre travail continu en matière de sécurité continue de jouer un rôle important dans la fourniture de ces avantages”, a déclaré un porte-parole d’OpenAI.
Dans le but de répondre aux problèmes de sécurité, OpenAI a récemment dévoilé son Child Safety Blueprint. Ce cadre politique recommande :
1. Mettre à jour la législation pour lutter contre le matériel abusif généré par l’IA.
2. Améliorer les processus de signalement pour les forces de l’ordre.
3. Mettre en œuvre des mesures préventives plus robustes.
La marée montante des dommages générés par l’IA
L’examen minutieux d’OpenAI fait partie d’une lutte beaucoup plus vaste, à l’échelle de l’industrie, pour réglementer le contenu de l’IA. Les données de la Internet Watch Foundation révèlent une tendance inquiétante : plus de 8 000 rapports faisant état de matériels d’abus sexuels sur enfants (CSAM) générés par l’IA au cours du premier semestre 2025, soit une augmentation de 14 % par rapport à l’année précédente.
À mesure que les modèles d’IA deviennent plus sophistiqués, la tension entre l’innovation technologique rapide et la nécessité de la sécurité publique continue de s’intensifier.
Conclusion : L’enquête de Floride constitue un défi juridique important pour les développeurs d’IA, alors que les régulateurs décident de tenir les entreprises technologiques responsables de la manière dont leurs outils pourraient être utilisés pour faciliter la violence, nuire à des mineurs ou menacer la stabilité nationale.






























