Selama bertahun-tahun, perdebatan seputar kecerdasan buatan berpusat pada skenario bagaimana jika : perpindahan pekerjaan, pembuatan kode secara otonom, kemampuan menipu, dan penggunaan senjata oleh pemerintah. Kini, pertanyaannya telah beralih ke apa yang terjadi sekarang seiring dengan terwujudnya kekhawatiran yang sebelumnya bersifat hipotetis dan menjadi kenyataan saat ini. AI telah diterapkan dengan cara yang menantang batasan etika dan protokol keamanan nasional, sehingga memaksa kita untuk memperhitungkan konsekuensi langsungnya.
Konflik Pentagon-Antropik: Studi Kasus dalam Pengendalian
Perselisihan baru-baru ini antara Pentagon AS dan Anthropic, pengembang sistem AI Claude, menggambarkan betapa pentingnya transisi ini. Pada bulan Juli, Anthropic setuju untuk mengintegrasikan Claude ke dalam operasi militer dengan syarat tertentu: tidak ada pengawasan massal dan tidak ada sistem senjata otonom yang mematikan. Pentagon dengan cepat menganggap pembatasan ini tidak dapat diterima, dan memandangnya sebagai perusahaan AI yang melakukan kontrol operasional atas fungsi militer.
Negosiasi gagal ketika Pentagon bersikeras menggunakan Claude untuk menganalisis data yang diperoleh secara komersial – sebuah praktik yang mengabaikan legalitas tetapi menawarkan alat pengawasan yang kuat. Alih-alih mencari vendor AI alternatif, seperti yang diperkirakan, Pentagon malah melakukan eskalasi dengan menyebut Anthropic sebagai “risiko rantai pasokan.” Penunjukan ini, jika diterapkan, akan secara efektif melumpuhkan Anthropic dengan melarang perusahaan mana pun yang bekerja sama dengan militer AS melakukan bisnis dengan mereka, termasuk pemain teknologi besar seperti Amazon dan Nvidia.
Ketidakpastian Hukum dan Penggunaan yang Berkelanjutan Meskipun Ada Pembatasan
Legalitas langkah ini dipertanyakan. Anthropic berpendapat bahwa pembatasan Pentagon hanya berlaku bagi kontraktor yang memenuhi kontrak pertahanan, bukan bagi perusahaan itu sendiri. Pakar hukum menyarankan pengadilan akan meneliti sebutan “risiko rantai pasokan” mengingat penggunaan Claude oleh militer secara terus-menerus dalam operasi seperti serangan Maduro dan konflik Iran. Kontradiksi tersebut – yang menetapkan suatu alat sebagai suatu kerentanan berisiko tinggi sekaligus menerapkannya – menimbulkan keraguan terhadap dasar pemikiran Pentagon.
Konflik ini menunjukkan adanya ketegangan yang kritis: pemerintah dan militer berupaya mengeksploitasi kemampuan AI dan pada saat yang sama berjuang untuk menentukan batas-batas yang dapat diterima. Kecepatan pengembangan AI melampaui kerangka hukum dan etika, sehingga menciptakan lanskap yang mudah berubah dan norma-norma yang ada dengan cepat terkikis.
Situasi ini menggarisbawahi tren yang lebih luas: percepatan integrasi AI ke dalam struktur keamanan nasional. Era kekhawatiran hipotetis telah berlalu; kita sekarang hidup di dunia di mana konsekuensi penerapan AI yang tidak terkendali terjadi secara real-time. Tindakan Pentagon menunjukkan kesediaan untuk memprioritaskan keuntungan taktis jangka pendek dibandingkan pertimbangan strategis jangka panjang, sehingga menjadi preseden berbahaya bagi masa depan tata kelola AI.
