Pengujian Departemen Kepolisian Detektif Berkekuatan AI pada Kejahatan Nyata

Kejahatan Bot

Sebuah departemen polisi di Inggris sedang menguji sistem yang didukung oleh AI yang dapat membantu memecahkan kasus-kasus dingin dengan mengkompresi puluhan tahun pekerjaan detektif menjadi hanya beberapa jam, laporan Sky News.

Tapi belum ada kabar tentang tingkat akurasi platform Australia ini, yang dinamakan Soze, yang merupakan kekhawatiran besar karena model AI cenderung mengeluarkan hasil yang sangat salah atau mengalami halusinasi informasi yang dibuat-buat.

Departemen Polisi Avon dan Somerset, yang mencakup sebagian dari South West England, sedang mencoba program ini dengan meminta Soze untuk memindai dan menganalisis email, akun media sosial, video, laporan keuangan, dan dokumen lainnya.

Sky melaporkan bahwa AI mampu memindai bukti dari 27 kasus “kompleks” dalam sekitar 30 jam – setara dengan 81 tahun kerja manusia, yang luar biasa. Tidak heran departemen polisi ini tertarik untuk menggunakan program ini, karena angka-angka tersebut terdengar seperti pengganda kekuatan yang luar biasa – yang membuatnya sangat menarik bagi penegak hukum yang mungkin kekurangan personil dan terbatas oleh kendala anggaran.

“Mungkin Anda memiliki tinjauan kasus dingin yang terlihat tidak mungkin karena jumlah materi di sana dan memberikannya ke sistem seperti ini yang bisa hanya menyerapnya, kemudian memberi Anda penilaian tentang itu,” kata ketua Dewan Kepala Kepolisian Nasional Inggris Gavin Stephens kepada Sky. “Saya bisa melihat hal itu menjadi sangat, sangat membantu.”

Laporan Minoritas

Proyek AI lain yang disebutkan oleh Stephens adalah menyusun database pisau dan pedang, yang banyak tersangka gunakan untuk menyerang dan melukai atau membunuh korban di Inggris.

Stephens sepertinya optimis tentang alat-alat AI ini segera diluncurkan, tetapi akan masuk akal untuk memvalidasi bahwa mereka bekerja dengan benar terlebih dahulu. AI, mungkin terutama dalam penegakan hukum, terkenal rentan terhadap kesalahan dan dapat menyebabkan hasil positif palsu.

MEMBACA  ICJ Siap Mengukur Pendapat Tentang Pendudukan Israel di Wilayah Palestina

Salah satu model yang digunakan untuk memprediksi peluang seorang tersangka melakukan kejahatan di masa depan tidak akurat dan juga bias terhadap orang kulit hitam – yang terdengar seperti sesuatu langsung dari novella Philip K. Dick “Minority Report,” kemudian diadaptasi menjadi film Steven Spielberg tahun 2002. Pengenalan wajah AI juga dapat menyebabkan penangkapan palsu, dengan minoritas berkali-kali dituduh melakukan kejahatan yang tidak mereka lakukan.

Ketidakakuratan ini sangat mengkhawatirkan sehingga Komisi Hak Asasi Manusia AS baru-baru ini mengkritik penggunaan AI dalam penegakan hukum.

Ada persepsi bahwa karena mesin ini melakukan analisis, mereka akan tidak bisa salah dan akurat. Tapi mereka dibangun berdasarkan data yang dikumpulkan oleh manusia, yang bisa bersikap bias dan benar-benar salah, jadi masalah-masalah yang sudah dikenal sudah terjadi dari awal.

Lebih lanjut tentang AI dan pekerjaan polisi: Para Polisi Mengatakan AI yang Halusinasi Siap Menulis Laporan Polisi yang Dapat Mengirim Orang ke Penjara”

Tinggalkan komentar