Tetaplah terinformasi dengan pembaruan gratis
Hanya mendaftar ke Artificial Intelligence myFT Digest – langsung dikirimkan ke kotak masuk Anda.
Penulis adalah direktur kebijakan internasional di Stanford University’s Cyber Policy Center dan penasihat khusus untuk Komisi Eropa.
Pemerintah-pemerintah Barat saling berlomba untuk mendirikan Institut Keselamatan AI. Inggris, AS, Jepang, dan Kanada semuanya telah mengumumkan inisiatif tersebut, sementara Departemen Keamanan Dalam Negeri AS baru saja menambahkan Dewan Keselamatan dan Keamanan AI ke dalamnya minggu lalu. Mengingat penekanan yang sangat besar pada keselamatan ini, sungguh luar biasa bahwa tidak satupun dari badan-badan ini mengatur penggunaan militer AI. Sementara itu, medan perang modern sudah menunjukkan potensi risiko keselamatan AI yang jelas.
Menurut penyelidikan terbaru oleh majalah Israel +972, Angkatan Pertahanan Israel telah menggunakan program yang diaktifkan AI bernama Lavender untuk menandai target-target serangan drone. Sistem ini menggabungkan sumber data dan intelijen untuk mengidentifikasi dugaan militan. Program tersebut disebut telah mengidentifikasi puluhan ribu target, dan bom yang dijatuhkan di Gaza mengakibatkan kematian dan kerusakan berlebihan. IDF membantah beberapa aspek laporan tersebut.
Venture capitalists mendukung pasar “deftech” – atau teknologi pertahanan. Perusahaan teknologi bersemangat untuk menjadi bagian dari booming terbaru ini dan terlalu cepat untuk menjual manfaat AI di medan perang. Microsoft dilaporkan telah memasarkan Dalle-E, alat AI generatif kepada militer AS, sementara perusahaan pengenalan wajah kontroversial Clearview AI bangga telah membantu Ukraina mengidentifikasi tentara Rusia dengan teknologi mereka. Anduril membuat sistem otonom dan Shield AI mengembangkan drone berbasis AI. Dua perusahaan ini telah mendatangkan ratusan juta dolar dalam putaran investasi pertama mereka.
Meskipun mudah untuk menyalahkan perusahaan swasta yang menggebu-gebu AI untuk tujuan perang, pemerintahlah yang membiarkan sektor ‘deftech’ meloloskan diri dari pengawasan mereka. Undang-undang AI UE yang bersejarah tidak berlaku untuk sistem AI yang “exclusively for military, defence, or national security purposes”. Sementara itu, Perintah Eksekutif Gedung Putih tentang AI memiliki pengecualian penting untuk AI militer (meskipun departemen pertahanan memiliki pedoman internal). Misalnya, implementasinya pada sebagian besar Perintah Eksekutif “tidak mencakup AI ketika digunakan sebagai komponen dari Sistem Keamanan Nasional”. Dan Kongres tidak mengambil tindakan untuk mengatur penggunaan militer teknologi tersebut.
Hal ini membuat dua blok demokratis utama dunia tanpa aturan baru yang mengikat tentang jenis sistem AI apa yang dapat digunakan oleh militer dan layanan intelijen mereka. Oleh karena itu, mereka kekurangan wewenang moral untuk mendorong negara-negara lain untuk mengatur penggunaan AI dalam militer masing-masing. Pernyataan politik terbaru tentang “Penggunaan Militer yang Bertanggung Jawab atas Kecerdasan Buatan dan Otonomi” yang didukung oleh sejumlah negara hanyalah sebatas pernyataan.
Kita harus bertanya pada diri sendiri seberapa bermakna diskusi politik tentang keselamatan AI, jika mereka tidak mencakup penggunaan militer dari teknologi tersebut. Meskipun tidak ada bukti bahwa senjata yang diaktifkan AI dapat mematuhi hukum internasional tentang perbedaan dan proporsionalitas, mereka dijual di seluruh dunia. Karena beberapa teknologi tersebut bersifat dual use, batas antara penggunaan sipil dan militer menjadi kabur.
Keputusan untuk tidak mengatur AI militer memiliki harga kemanusiaan. Meskipun seringkali tidak akurat, sistem-sistem ini sering dipercayakan secara berlebihan dalam konteks militer karena mereka salah dilihat sebagai netral. Ya, AI dapat membantu membuat keputusan militer lebih cepat, tetapi juga dapat lebih rentan terhadap kesalahan dan pada prinsipnya mungkin tidak sesuai dengan hukum kemanusiaan internasional. Kontrol manusia atas operasi sangat penting dalam memegang akuntabilitas pelaku secara hukum.
PBB telah berusaha mengisi kekosongan tersebut. Sekretaris Jenderal António Guterres pertama kali menyerukan larangan senjata otonom pada tahun 2018, menggambarkannya sebagai “moral yang menjijikkan”. Lebih dari 100 negara telah menunjukkan minat untuk bernegosiasi dan mengadopsi hukum internasional baru untuk melarang dan membatasi sistem senjata otonom. Tetapi Rusia, AS, Inggris, dan Israel, telah menentang usulan yang mengikat, menyebabkan pembicaraan itu buntu.
Jika negara-negara tidak bertindak untuk melindungi warga sipil dari penggunaan militer AI, sistem internasional berbasis aturan harus mengambil langkah. Badan penasihat tinggi sekretaris jenderal PBB tentang AI (di mana saya bertugas) akan menjadi salah satu kelompok yang cocok untuk merekomendasikan larangan penggunaan risiko AI militer, tetapi kepemimpinan politik tetap penting untuk memastikan aturan dijalankan.
Memastikan standar hak asasi manusia dan hukum konflik bersenjata terus melindungi warga sipil di era baru perang sangat penting. Penggunaan AI yang tidak diatur di medan perang tidak bisa terus berlanjut.