Biuro prokuratora okręgowego w Nevadzie znalazło się pod kontrolą po tym, jak prawnicy stwierdzili, że nieprawidłowe treści wygenerowane przez sztuczną inteligencję zostały wykorzystane do uzasadnienia zatrzymania Kyle’a Keoller’a (57 l.) w areszcie przedprocesowym. Sprawa uwydatnia rosnące ryzyko związane z wykorzystaniem sztucznej inteligencji w postępowaniach sądowych, w których dokładność jest najważniejsza.
Zarzuty
Kjoller został aresztowany pod zarzutem licznych zarzutów dotyczących posiadania broni. Jego zespół obrońców argumentował, że zarzuty nie uzasadniają tymczasowego aresztowania na mocy kalifornijskiego prawa. Prokuratura złożyła jednak apelację, udowadniając coś przeciwnego. Prawnicy Kjoller argumentują, że dokument zawierał liczne błędy typowe dla generatywnej sztucznej inteligencji, w tym błędne interpretacje precedensów prawnych i sfabrykowane cytaty.
Typowe błędy
Problem nie był odosobniony. Ten sam prokurator, prokurator okręgowy Jesse Wilson, złożył apelacje w co najmniej czterech sprawach zawierających podobne błędy. Błędy te uwypuklają wzór narzędzi sztucznej inteligencji, którym brakuje precyzji wymaganej w dokumentacji prawnej. Konsekwencje są poważne: błędne rozumowanie prawne może prowadzić do niesłusznych zatrzymań i pomyłek sądowych.
Odpowiedź Prokuratora
Wilson przyznaje, że wystąpiły błędy, ale twierdzi, że sztuczna inteligencja została wykorzystana tylko w jednym z odwołań. Faktem pozostaje jednak, że treści generowane przez sztuczną inteligencję zostały wprowadzone do systemu prawnego bez wystarczającej kontroli, co rodzi pytania dotyczące nadzoru i odpowiedzialności.
Dlaczego to ma znaczenie
W tej sprawie chodzi o coś więcej niż tylko przetrzymywanie jednej osoby w areszcie. Podkreśla krytyczny błąd w pośpiechu we włączaniu sztucznej inteligencji do procesów decyzyjnych o wysokich stawkach. Generatywna sztuczna inteligencja jest podatna na „halucynacje” – fabrykowanie informacji lub zniekształcanie faktów. W orzecznictwie, gdzie dokładność nie podlega negocjacjom, stwarza to bezpośrednie zagrożenie dla należytego procesu. Incydent uwypuklił pilną potrzebę wprowadzenia środków ostrożności i nadzoru człowieka podczas korzystania ze sztucznej inteligencji w kontekście prawnym.
Incydent budzi szersze obawy: W miarę jak sztuczna inteligencja staje się coraz bardziej powszechna w egzekwowaniu prawa i postępowaniach sądowych, wzrasta ryzyko błędów systemowych. Sprawa podkreśla potencjał sztucznej inteligencji w zakresie podważania sprawiedliwości prawnej i wzmacnia potrzebę ostrożnego wdrażania i testowania tych narzędzi.
