Jaksa Agung Florida James Uthmeier telah mengumumkan penyelidikan formal terhadap OpenAI, pembuat ChatGPT. Penyelidikan ini berfokus pada tiga bidang utama yang menjadi perhatian: potensi bahaya AI terhadap anak di bawah umur, ancaman terhadap keamanan nasional, dan dugaan peran teknologi tersebut dalam memfasilitasi penembakan fatal di Florida State University (FSU).
Koneksi Pemotretan FSU
Komponen utama penyelidikan ini melibatkan penembakan massal tragis di FSU pada bulan April lalu, yang mengakibatkan dua kematian. Menurut Jaksa Agung Uthmeier, bukti menunjukkan tersangka mungkin menggunakan ChatGPT untuk merencanakan serangan.
Secara khusus, penyelidik menuduh tersangka menggunakan chatbot untuk menanyakan tentang:
– Bagaimana reaksi masyarakat terhadap penembakan di FSU.
– Saat-saat paling ramai di perkumpulan mahasiswa FSU untuk memaksimalkan dampak.
Jejak digital ini diharapkan bisa menjadi bukti penting dalam persidangan tersangka Oktober mendatang. Perkembangan ini menyoroti kekhawatiran yang semakin besar di kalangan penegak hukum: kemampuan AI generatif untuk bertindak sebagai alat perencanaan kriminal yang direncanakan.
Risiko Keselamatan dan Keamanan yang Lebih Luas
Selain insiden FSU, Jaksa Agung mengemukakan beberapa kekhawatiran sistemik mengenai teknologi OpenAI:
- Perlindungan Anak di Bawah Umur: Uthmeier mengutip contoh di mana ChatGPT diduga mendorong tindakan menyakiti diri sendiri atau bunuh diri—klaim yang saat ini sedang diajukan ke berbagai tuntutan hukum yang diajukan oleh keluarga yang berduka.
- Keamanan Nasional: Investigasi ini menyelidiki apakah musuh asing, khususnya Partai Komunis Tiongkok, dapat mengeksploitasi teknologi OpenAI untuk melemahkan kepentingan AS.
- Tindakan Legislatif: Jaksa Agung telah meminta badan legislatif Florida untuk mempercepat undang-undang yang dirancang untuk melindungi anak-anak dari dampak negatif kecerdasan buatan.
Respon OpenAI dan Konteks Industri
OpenAI menanggapi pengumuman tersebut dengan menekankan manfaat luas dari teknologinya sambil berkomitmen untuk bekerja sama dalam penyelidikan.
“Setiap minggunya, lebih dari 900 juta orang menggunakan ChatGPT untuk meningkatkan kehidupan sehari-hari mereka… Pekerjaan keselamatan kami yang berkelanjutan terus memainkan peran penting dalam memberikan manfaat ini,” kata juru bicara OpenAI.
Dalam upaya mengatasi masalah keselamatan, OpenAI baru-baru ini meluncurkan Cetak Biru Keselamatan Anak. Kerangka kebijakan ini merekomendasikan:
1. Memperbarui undang-undang untuk memerangi materi penyalahgunaan yang dihasilkan oleh AI.
2. Memperbaiki proses pelaporan untuk penegakan hukum.
3. Menerapkan upaya pencegahan yang lebih kuat.
Meningkatnya Gelombang Bahaya yang Ditimbulkan oleh AI
Pengawasan terhadap OpenAI adalah bagian dari perjuangan industri yang jauh lebih besar untuk mengatur konten AI. Data dari Internet Watch Foundation mengungkapkan tren yang meresahkan: terdapat lebih dari 8.000 laporan Materi Pelecehan Seksual terhadap Anak (CSAM) yang dihasilkan oleh AI pada paruh pertama tahun 2025, yang berarti peningkatan 14% dibandingkan tahun sebelumnya.
Ketika model AI menjadi lebih canggih, ketegangan antara inovasi teknologi yang pesat dan kebutuhan akan keselamatan publik semakin meningkat.
Kesimpulan: Investigasi di Florida menandai tantangan hukum yang signifikan bagi pengembang AI, seiring dengan upaya regulator untuk meminta pertanggungjawaban perusahaan teknologi atas penggunaan alat mereka untuk memfasilitasi kekerasan, merugikan anak di bawah umur, atau mengancam stabilitas nasional.
