Militer Israel Menggunakan Kecerdasan Buatan untuk Memilih Target di Gaza Dengan ‘Rubber Stamp’ Dari Operator Manusia: Laporan

Israel telah menggunakan sistem kecerdasan buatan bernama Lavender untuk membuat daftar “kill list” dari setidaknya 37.000 orang di Gaza, menurut laporan terbaru dari majalah Israel +972, yang dikonfirmasi oleh Guardian. Lavender adalah sistem kecerdasan buatan kedua yang terungkap setelah keberadaan The Gospel Israel pertama kali dilaporkan tahun lalu, tetapi sementara The Gospel menargetkan bangunan, Lavender menargetkan orang.

Laporan baru tersebut mengutip enam petugas intelijen Israel yang tidak disebutkan namanya yang berbicara dengan +972 tentang bagaimana militer negara itu “hampir sepenuhnya bergantung” pada Lavender selama minggu-minggu awal perang, meskipun diketahui bahwa sistem tersebut sering keliru mengidentifikasi target potensial sebagai teroris. Manusia yang berada dalam loop – istilah untuk memastikan bahwa orang tersebut yang membuat keputusan target daripada mesin – pada dasarnya bertindak sebagai “stempel karet,” menurut +972, dengan para petugas Israel menghabiskan sekitar 20 detik untuk setiap keputusan.

Sistem kecerdasan buatan Lavender dilaporkan bekerja dengan menganalisis informasi yang dikumpulkan tentang hampir semua dari 2,3 juta warga Palestina di Jalur Gaza “melalui sistem pengawasan massal,” menilai kemungkinan setiap orang tertentu menjadi anggota Hamas dalam sistem peringkat yang tidak transparan. Setiap warga Palestina diberi peringkat 1 hingga 100 yang seharusnya menentukan seberapa mungkin mereka menjadi anggota kelompok teroris militan.

Lavender belajar mengidentifikasi karakteristik operatif Hamas dan Jihad Islam Palestina yang dikenal, yang informasinya dimasukkan ke mesin sebagai data pelatihan, dan kemudian menemukan karakteristik yang sama ini – juga disebut sebagai “fitur” – di antara populasi umum, jelaskan sumber tersebut. Individu yang ditemukan memiliki beberapa fitur inkriminasi yang berbeda akan mencapai peringkat tinggi, dan dengan demikian secara otomatis menjadi target potensial untuk pembunuhan.

MEMBACA  Pemimpin Jerman mendesak untuk menahan diri setelah serangan Iran terhadap Israel

Militer Israel memberikan “persetujuan luas” kepada petugas untuk menggunakan Lavender untuk penargetan di Gaza menurut +972, tetapi tidak ada persyaratan untuk melakukan pemeriksaan menyeluruh tentang “mengapa mesin membuat pilihan itu atau untuk memeriksa data intelijen mentah di mana mereka didasarkan.” Manusia yang memeriksa keputusan penargetan Lavender pada umumnya hanya memeriksa untuk memastikan target adalah laki-laki, meskipun setidaknya 10% dari target tidak memiliki asosiasi yang mungkin dengan Hamas, menurut “pemeriksaan internal.” Tidak jelas bagaimana pemeriksaan internal tersebut dilakukan atau apakah persentasenya jauh lebih tinggi.

Kebanyakan target dibom di rumah mereka, menurut +972. Sistem otomatis lain yang digunakan bersamaan dengan Lavender, yang disebut “Where’s Daddy?” telah digunakan untuk menyerang target di dalam rumah keluarga mereka.

“Kami tidak tertarik membunuh operatif [Hamas] hanya ketika mereka berada di gedung militer atau terlibat dalam aktivitas militer,” kata seorang petugas intelijen Israel yang tidak disebutkan namanya kepada +972. “Sebaliknya, IDF membombardir mereka di rumah tanpa ragu, sebagai opsi pertama. Lebih mudah untuk membombardir rumah keluarga. Sistem ini dibangun untuk mencari mereka dalam situasi tersebut.”

Laporan baru juga mengklaim target yang diidentifikasi oleh Lavender hanya merupakan militer junior, yang berarti militer Israel lebih suka menggunakan amunisi tidak terarah atau “bom bodoh,” agar tidak membuang bom mahal untuk target yang relatif tidak penting. Akibatnya, seluruh keluarga dilenyapkan, menurut +972.

Israel juga mengendurkan ambang batasnya untuk jumlah warga sipil yang dapat dibunuh sebagai “kerusakan kolateral,” laporan yang konsisten dengan bocoran sebelumnya yang diterbitkan di Haaretz tentang aturan pertempuran baru setelah 7 Oktober.

“Secara tidak lazim, menurut dua sumber tersebut, tentara juga memutuskan selama minggu-minggu pertama perang bahwa, untuk setiap operatif Hamas junior yang ditandai Lavender, diperbolehkan untuk membunuh hingga 15 atau 20 warga sipil; di masa lalu, militer tidak memberi izin untuk “kerusakan kolateral” selama pembunuhan militan peringkat rendah. Sumber tersebut menambahkan bahwa, dalam hal target adalah pejabat Hamas senior dengan pangkat komandan batalyon atau brigade, tentara dalam beberapa kesempatan memberi izin untuk membunuh lebih dari 100 warga sipil dalam pembunuhan seorang komandan tunggal.

MEMBACA  OpenAI menghapus larangan militer dan perang dari kebijakannya.

Israel meluncurkan perang di Gaza setelah serangan teroris 7 Oktober 2023, yang menewaskan sekitar 1.200 warga Israel dan melihat Hamas menculik sekitar 240 orang. Lebih dari 32.600 warga Palestina telah tewas di Gaza sejak dimulainya perang, menurut PBB, dengan mayoritas diidentifikasi sebagai perempuan dan anak-anak. Dan diperkirakan ribuan lainnya yang terkubur di bawah puing-puing wilayah yang hancur itu belum dihitung. Israel melaporkan 255 tentaranya telah tewas sejak dimulainya perang.

Lavender sebelumnya hanya digunakan sebagai “alat bantu” sebelum 7 Oktober, menurut +972, tetapi daftar pembunuhan lengkap dengan puluhan ribu orang diadopsi secara keseluruhan setelah serangan teroris.

“Pukul 5 pagi, [angkatan udara] akan datang dan membombardir semua rumah yang telah kami tandai,” kata salah satu sumber Israel yang anonim kepada +972. “Kami mengeluarkan ribuan orang. Kami tidak melakukannya satu per satu – kami memasukkan semuanya ke dalam sistem otomatis, dan segera saja salah satu [individu yang ditandai] berada di rumah, dia segera menjadi target. Kami membombardirnya dan rumahnya.”

Israel merilis pernyataan panjang kepada Guardian tentang sistem kecerdasan buatan Lavender pada hari Rabu, bersikeras bahwa Hamas menggunakan warga Palestina di Gaza sebagai “perisai manusia,” sementara Israel menghormati hukum internasional.

“Berbeda dengan klaim, IDF tidak menggunakan sistem kecerdasan buatan yang mengidentifikasi operatif teroris atau mencoba memprediksi apakah seseorang adalah teroris. Sistem informasi hanyalah alat bagi analis dalam proses identifikasi target,” pernyataan Israel tersebut.

“Menurut petunjuk IDF, analis harus melakukan pemeriksaan independen, di mana mereka memverifikasi bahwa target yang diidentifikasi memenuhi definisi yang relevan sesuai dengan hukum internasional dan pembatasan tambahan yang diatur dalam petunjuk IDF,” lanjut pernyataan itu.

MEMBACA  Teknologi AI yang membantu menghentikan kecelakaan gajah di India

Dan meskipun laporan baru dari +972 mengakui penggunaan Lavender secara luas telah dikurangi sejak dimulainya perang, sebagian alasan tersebut adalah karena militer Israel sudah kehabisan rumah warga sipil yang akan ditargetkan karena “sebagian besar rumah di Jalur Gaza sudah hancur atau rusak.”