California telah memberlakukan undang-undang baru yang mewajibkan chatbot pendamping AI untuk secara eksplisit mengidentifikasi diri mereka sebagai entitas non-manusia dan menerapkan protokol keselamatan, termasuk tindakan pencegahan bunuh diri. Gubernur Gavin Newsom menandatangani SB 243 menjadi undang-undang pada hari Senin, menandai langkah signifikan menuju pengaturan lanskap kecerdasan buatan yang berkembang pesat.
Persyaratan Pengungkapan untuk Anak di Bawah Umur
RUU tersebut mengamanatkan bahwa chatbot yang berinteraksi dengan pengguna di bawah 18 tahun menampilkan pengingat setiap tiga jam bahwa mereka bukan manusia. Ketentuan ini mengatasi kekhawatiran tentang ketergantungan emosional dan potensi pengguna, khususnya kaum muda, untuk mengembangkan keterikatan yang tidak sehat dengan rekan AI. Undang-undang ini berupaya mencegah penafsiran yang keliru dan memastikan pengguna tetap sadar akan sifat buatan dari interaksi mereka.
Protokol Pencegahan Bunuh Diri
SB 243 juga mewajibkan perusahaan chatbot untuk menetapkan protokol yang jelas untuk mengidentifikasi dan merespons ide bunuh diri atau tindakan menyakiti diri sendiri yang diungkapkan oleh pengguna. Undang-undang ini menanggapi secara langsung kekhawatiran yang berkembang mengenai dampak AI terhadap kesehatan mental, terutama setelah adanya insiden di mana chatbot diduga terkait dengan tekanan pengguna. OpenAI, pencipta ChatGPT, telah menghadapi tuntutan hukum dari orang tua yang mengklaim bahwa platform tersebut berkontribusi terhadap bunuh diri anak mereka, sehingga mendorong perusahaan untuk menerapkan kontrol orang tua yang baru.
Regulasi Teknologi yang Lebih Luas di California
Undang-undang ini merupakan bagian dari serangkaian undang-undang baru-baru ini yang ditandatangani oleh Newsom yang menargetkan teknologi konsumen. AB 56 mewajibkan label peringatan pada platform media sosial, serupa dengan yang ada pada produk tembakau, sementara tindakan lainnya bertujuan untuk melindungi data pengguna dan mengekang praktik periklanan yang mengganggu. Undang-undang ini mencerminkan tren yang lebih luas di mana regulator menindak perusahaan teknologi di tengah meningkatnya kekhawatiran masyarakat terhadap privasi data, kesehatan mental, dan desain yang membuat ketagihan.
Respon Industri
Pengembang AI merespons peraturan baru ini dengan tingkat kepatuhan yang berbeda-beda. Replika, platform pendamping AI terkemuka, menyatakan bahwa mereka telah memiliki sistem deteksi tindakan menyakiti diri sendiri dan bekerja sama dengan regulator untuk memastikan kepatuhan penuh. OpenAI dan Character.ai keduanya menyatakan dukungan terhadap RUU tersebut, dan mengakui perlunya pengembangan AI yang bertanggung jawab.
“Dengan menetapkan batasan yang jelas, California membantu membentuk pendekatan yang lebih bertanggung jawab terhadap pengembangan dan penerapan AI di seluruh negeri,” kata Jamie Radice, juru bicara OpenAI.
Implikasi dari SB 243 melampaui California, dan berpotensi menjadi preseden bagi peraturan serupa secara nasional. Seiring dengan semakin terintegrasinya AI ke dalam kehidupan sehari-hari, para anggota parlemen semakin fokus untuk memitigasi risiko-risikonya sekaligus mendorong inovasi. Undang-undang ini menggarisbawahi semakin besarnya pengakuan bahwa AI tidaklah netral dan memerlukan pengawasan yang cermat untuk melindungi pengguna yang rentan.
Undang-undang baru ini menyoroti ketegangan antara kemajuan teknologi dan tanggung jawab etis, sehingga menuntut perusahaan AI untuk memprioritaskan keselamatan pengguna di samping pengembangan produk. Tindakan California mungkin menandakan pergeseran ke arah tata kelola AI yang lebih ketat, sehingga memaksa pengembang untuk secara proaktif mengatasi potensi bahaya pada teknologi mereka.
