Tersangka penembakan mematikan tanggal 10 Februari di Tumbler Ridge, British Columbia, Jesse Van Rootselaar, terlibat dalam percakapan yang meresahkan dengan ChatGPT OpenAI beberapa bulan sebelum serangan, sehingga menimbulkan kekhawatiran internal yang akhirnya dibubarkan. Menurut OpenAI, Rootselaar menggambarkan skenario kekerasan secara rinci, memicu protokol keselamatan otomatis dan memicu kekhawatiran di kalangan karyawan bahwa interaksi tersebut dapat menandakan kekerasan di dunia nyata.

Kekhawatiran Diabaikan oleh Kepemimpinan OpenAI

Terlepas dari kekhawatiran ini, pimpinan OpenAI menolak untuk menghubungi penegak hukum, dan menyimpulkan bahwa aktivitas Rootselaar tidak mewakili “risiko bahaya yang dapat terjadi dan dapat dipercaya”. Perusahaan memblokir akun pengguna tersebut, tetapi tidak ada tindakan lebih lanjut yang diambil. Juru bicara OpenAI Kayla Wood menyatakan bahwa tinjauan terhadap log tidak menunjukkan perencanaan aktif untuk melakukan serangan.

“Pikiran kami tertuju pada semua orang yang terkena dampak tragedi Tumbler Ridge. Kami secara proaktif menghubungi Royal Canadian Mounted Police dengan memberikan informasi mengenai individu tersebut dan penggunaan ChatGPT oleh mereka, dan kami akan terus mendukung penyelidikan mereka.”
– Kayla Wood, juru bicara OpenAI

Tragedi Terkuak

Pada 10 Februari, sembilan orang tewas dan 27 luka-luka dalam penembakan massal paling mematikan di Kanada sejak tahun 2020. Rootselaar ditemukan tewas di lokasi Sekolah Menengah Tumbler Ridge, tampaknya akibat luka tembak yang dilakukan sendiri. Insiden ini telah menghidupkan kembali perdebatan tentang tanggung jawab perusahaan teknologi untuk melakukan intervensi ketika pengguna mengungkapkan niat melakukan kekerasan, meskipun niat tersebut tidak secara eksplisit bersifat kriminal.

Menyeimbangkan Privasi dan Keamanan

OpenAI menyatakan bahwa keputusannya didasarkan pada kebijakan untuk menyeimbangkan privasi pengguna dengan keselamatan publik, menghindari “penggunaan rujukan penegakan hukum yang terlalu luas” yang dapat menimbulkan kerugian yang tidak diinginkan. Namun, para kritikus berpendapat bahwa pendekatan perusahaan tersebut mungkin memakan banyak korban jiwa. Kasus ini menimbulkan pertanyaan apakah platform AI harus melaporkan potensi ancaman kepada pihak berwenang, bahkan ketika tidak ada bukti nyata adanya kekerasan yang direncanakan.

Penembakan di Tumbler Ridge menggarisbawahi tantangan dalam memprediksi dan mencegah kekerasan massal, serta dilema etika yang dihadapi oleh perusahaan teknologi ketika menghadapi perilaku pengguna yang mengganggu. Insiden ini menjadi pengingat tragis bahwa tidak adanya tindakan dapat menimbulkan konsekuensi yang mematikan, bahkan ketika niat tidak sepenuhnya terbentuk.