Kantor kejaksaan Nevada County berada di bawah pengawasan setelah para pengacara menuduh bahwa konten cacat yang dihasilkan oleh AI digunakan untuk membenarkan penahanan seorang pria, Kyle Kjoller, 57 tahun, sebelum diadili. Kasus ini menyoroti semakin besarnya risiko mengandalkan kecerdasan buatan dalam proses hukum, yang mengutamakan akurasi.
Tuduhan
Kjoller ditangkap atas berbagai tuduhan kepemilikan senjata ilegal. Tim pembelanya berpendapat bahwa dakwaan tersebut tidak memerlukan penahanan pra-sidang berdasarkan hukum California. Namun, jaksa mengajukan tuntutan singkat dengan alasan sebaliknya. Pengacara Kjoller mengklaim dokumen tersebut mengandung banyak kesalahan yang merupakan karakteristik AI generatif, termasuk salah tafsir terhadap preseden hukum dan kutipan palsu.
Kesalahan yang Meluas
Permasalahannya tidak terisolasi. Jaksa yang sama, Jaksa Wilayah Jesse Wilson, mengajukan laporan setidaknya dalam empat kasus dengan kesalahan serupa. Kesalahan ini menunjukkan adanya pola ketergantungan pada alat AI yang kurang presisi dalam dokumentasi hukum. Implikasinya sangat parah: penalaran hukum yang salah dapat mengakibatkan penahanan yang salah dan hilangnya keadilan.
Tanggapan Jaksa
Wilson mengakui kesalahannya tetapi mengklaim AI hanya digunakan dalam salah satu laporan. Namun, faktanya konten buatan AI dimasukkan ke dalam sistem hukum tanpa verifikasi yang memadai, sehingga menimbulkan pertanyaan tentang pengawasan dan akuntabilitas.
Mengapa Ini Penting
Kasus ini lebih dari sekedar penahanan satu orang. Hal ini memperlihatkan kelemahan kritis dalam upaya mengintegrasikan AI ke dalam pengambilan keputusan yang berisiko tinggi. AI generatif rentan terhadap “halusinasi” – memalsukan informasi atau salah mengartikan fakta. Dalam hukum, ketika keakuratan tidak dapat dinegosiasikan, hal ini menimbulkan ancaman langsung terhadap proses hukum. Insiden ini menggarisbawahi kebutuhan mendesak akan perlindungan dan pengawasan manusia saat menggunakan AI dalam konteks hukum.
Insiden ini menimbulkan kekhawatiran yang lebih luas: seiring dengan semakin lazimnya AI dalam penegakan hukum dan proses peradilan, risiko kesalahan sistemik pun meningkat. Kasus ini menyoroti potensi AI untuk melemahkan keadilan hukum dan memperkuat perlunya penerapan dan validasi alat-alat ini secara hati-hati.
