Dalam beberapa minggu setelah serangan kejutan Hamas pada 7 Oktober terhadap Israel, Angkatan Pertahanan Israel diduga dengan sengaja menargetkan rumah-rumah warga sipil dan diduga menggunakan program berbasis AI bernama Lavender untuk menghasilkan target-target untuk pembunuhan, yang menghasilkan puluhan serangan bom berdasarkan keputusan yang dibuat dengan sedikit tinjauan manusia.
Pada satu titik, sistem tersebut menggunakan surveilans massal di Gaza untuk menghasilkan daftar 37.000 target bombardemen, termasuk banyak anggota Hamas tingkat rendah yang tidak biasanya menjadi target operasi pengeboman, menurut laporan.
Dugaan tersebut, yang diungkapkan oleh majalah +972 dan Local Call, didasarkan pada wawancara dengan enam perwira intelijen Israel yang bertugas selama konflik dengan Hamas di Gaza dan terlibat dalam penggunaan AI untuk menyelidiki target-target.
Salah satu perwira mengatakan bahwa perannya dalam sistem tersebut hanyalah sebagai “cap stempel” pada keputusan penargetan Lavender, hanya menghabiskan beberapa detik untuk meninjau rekomendasi sistem tersebut secara pribadi.
Para perwira juga menggambarkan keputusan untuk menyerang puluhan target Hamas di rumah mereka ketika mereka berada di antara warga sipil, karena lokasi tersebut memudahkan untuk mengonfirmasi lokasi mereka dengan alat intelijen. Perencana yang mempertimbangkan serangan diduga bersedia membiarkan hingga 15 atau 20 warga sipil tewas dalam proses mengejar satu anggota Hamas tingkat rendah.
“Pada dasarnya, IDF membombardir mereka di rumah tanpa ragu, sebagai pilihan pertama. Lebih mudah membombardir rumah keluarga. Sistem ini dibangun untuk mencari mereka dalam situasi seperti ini,” kata salah satu perwira anonim kepada para media.
“Sebuah pemeriksaan independen oleh seorang analis intelijen diperlukan, yang memverifikasi bahwa target-target yang diidentifikasi adalah target yang sah untuk serangan, sesuai dengan ketentuan yang ditetapkan dalam perintah IDF dan hukum internasional,” kata IDF kepada media sebagai tanggapan terhadap penyelidikan tersebut.
Para pengamat mengkritik taktik tersebut sebagai tidak manusiawi.
Tariq Kenney-Shawa, seorang fellow di Al-Shabaka: Jaringan Kebijakan Palestina, menyebut laporan tersebut “mengerikan.”
Alex Hanna dari Distributed AI Research Institute, sementara itu, menulis di X, “Ini mengerikan dan merupakan masa depan perang AI untuk Kekaisaran AS.”
Para prajurit sering lebih mempercayai sistem daripada penilaian dari rekan-rekan mereka yang berduka setelah 7 Oktober, kata seorang perwira intelijen yang menggunakan Lavender, yang dikembangkan oleh Unit 8200 elit Israel, kepada The Guardian.
“Ini belum pernah terjadi sebelumnya, menurut ingatanku,” kata perwira tersebut, menambahkan. “Semua orang di sana, termasuk saya, kehilangan orang pada 7 Oktober. Mesin melakukannya dengan dingin. Dan itu membuatnya lebih mudah.”
Dalam sebuah pernyataan kepada The Guardian, IDF membantah menggunakan AI untuk menghasilkan target militer yang terkonfirmasi, dan mengatakan Lavender digunakan untuk “menyilangkan sumber-sumber intelijen, untuk menghasilkan lapisan informasi terbaru tentang operatif militer organisasi teroris.”
“IDF tidak menggunakan sistem kecerdasan buatan yang mengidentifikasi operatif teroris atau mencoba memprediksi apakah seseorang adalah teroris,” tambahnya. “Sistem informasi hanyalah alat bagi analis dalam proses identifikasi target.”
Diperkirakan sekitar 33.000 warga Palestina tewas dalam kampanye Israel di Gaza, menurut kementerian kesehatan wilayah tersebut, mayoritas di antaranya adalah warga sipil.
Israel telah menghadapi terus-menerus peninjauan terhadap jumlah kematian warga sipil yang tinggi akibat operasinya, yang telah menargetkan area perumahan, rumah sakit, dan kamp pengungsi. IDF mengatakan Hamas sering menempatkan aktivitas militer di area sipil sebagai cara menggunakan perisai manusia.
Taktik penargetan IDF mendapat kritik baru dari komunitas internasional setelah Israel membunuh tujuh pekerja bantuan World Central Kitchen dalam serangan udara di Gaza pada hari Senin.