Prokurator generalny Florydy James Utmeyer ogłosił rozpoczęcie formalnego śledztwa w sprawie OpenAI, twórcy ChatGPT. Dochodzenie koncentruje się na trzech głównych obszarach: potencjalnej szkodliwości sztucznej inteligencji dla nieletnich, zagrożeniach dla bezpieczeństwa narodowego oraz rzekomej roli tej technologii w śmiertelnym incydencie strzelaniny na Florida State University (FSU).
Połączenie ze strzelaniną FSU
Centralnym punktem śledztwa jest tragiczna strzelanina w FSU w kwietniu ubiegłego roku, w której zginęły dwie osoby. Według prokuratora generalnego Utmeyera dostępne dowody wskazują, że podejrzany mógł wykorzystać ChatGPT do zaplanowania ataku.
W szczególności śledczy twierdzą, że podejrzany wykorzystał chatbota, aby dowiedzieć się:
– Jak społeczeństwo zareaguje na strzelaninę w FSU.
– O której godzinie w związku studenckim FSU jest najbardziej tłoczno, aby spowodować maksymalne szkody?
Oczekuje się, że te „cyfrowe ślady” staną się kluczowym dowodem w nadchodzącym procesie podejrzanego, który odbędzie się w październiku. Incydent uwydatnia rosnące obawy organów ścigania dotyczące możliwości wykorzystania generatywnej sztucznej inteligencji jako narzędzia do celowego planowania przestępczości.**
Szersze zagrożenia bezpieczeństwa
Oprócz incydentu FSU Prokurator Generalny podkreślił szereg problemów systemowych związanych z technologiami OpenAI:
- Ochrona nieletnich: Utmeyer przytoczył przypadki, w których ChatGPT rzekomo zachęcał do samookaleczenia lub samobójstwa, a zarzuty te są obecnie rozpatrywane w ramach kilku pozwów złożonych przez rodziny ofiar.
- Bezpieczeństwo narodowe: Dochodzenie sprawdza, czy zagraniczni przeciwnicy, w szczególności Komunistyczna Partia Chin, mogliby wykorzystać technologię OpenAI do osłabienia interesów USA.
- Działanie legislacyjne: Prokurator Generalny wezwał legislaturę Florydy do przyspieszenia wprowadzenia przepisów chroniących dzieci przed negatywnym wpływem sztucznej inteligencji.
Reakcja OpenAI i kontekst branżowy
W odpowiedzi na to oświadczenie OpenAI podkreśliło szerokie korzyści płynące ze swojej technologii i wyraziło chęć współpracy w dochodzeniu.
„Co tydzień ponad 900 milionów ludzi korzysta z ChatGPT, aby poprawić swoje codzienne życie… Nasze ciągłe wysiłki w zakresie bezpieczeństwa w dalszym ciągu odgrywają ważną rolę w osiąganiu tych korzyści” – powiedział rzecznik OpenAI.
Starając się rozwiązać problemy związane z bezpieczeństwem, OpenAI niedawno zaprezentowało swój Plan bezpieczeństwa dzieci. Koncepcja ta obejmuje:
1. Zaktualizować przepisy w celu zwalczania materiałów przedstawiających wykorzystywanie dzieci generowanych przez sztuczną inteligencję.
2. Usprawnij procesy raportowania dla organów ścigania.
3. Wprowadzenie bardziej niezawodnych środków ochrony zapobiegawczej.
Rosnąca fala szkód związanych ze sztuczną inteligencją
Recenzja OpenAI jest częścią większej, ogólnobranżowej walki o uregulowanie treści generowanych przez sztuczną inteligencję. Dane Internet Watch Foundation ujawniły niepokojącą tendencję: w pierwszej połowie 2025 r. zgłoszono ponad 8000 zgłoszeń dotyczących materiałów przedstawiających wykorzystywanie seksualne dzieci wygenerowanych przez sztuczną inteligencję (CSAM), co stanowi wzrost o 14% w porównaniu z rokiem poprzednim.
W miarę jak modele sztucznej inteligencji stają się coraz bardziej wyrafinowane, napięcie między szybkim postępem technologicznym a potrzebą zapewnienia bezpieczeństwa publicznego stale rośnie.
Wniosek: dochodzenie na Florydzie stanowi poważne wyzwanie prawne dla twórców sztucznej inteligencji, ponieważ organy regulacyjne starają się pociągnąć firmy technologiczne do odpowiedzialności za to, w jaki sposób ich narzędzia mogą zostać wykorzystane do popełniania przemocy, wyrządzania krzywdy dzieciom lub zagrażania stabilności kraju.






























