Legislator AS Minta DOJ Berhenti Mendanai Alat Polisi ‘Prediktif’ Secara Sembarangan

Departemen Kehakiman Amerika Serikat gagal meyakinkan sekelompok anggota parlemen AS bahwa lembaga kepolisian negara dan lokal tidak diberikan hibah federal untuk membeli alat “pengawasan” berbasis kecerdasan buatan (AI) yang diketahui tidak akurat, jika tidak cenderung memperburuk bias yang sudah lama diamati dalam kepolisian AS.

Tujuh anggota Kongres menulis dalam surat kepada Departemen Kehakiman, yang pertama kali diperoleh oleh WIRED, bahwa informasi yang mereka dapatkan dari lembaga tersebut hanya memperkuat kekhawatiran mereka tentang program hibah kepolisian DOJ. Tidak ada yang ada dalam tanggapan mereka sejauh ini, kata para anggota parlemen, menunjukkan bahwa pemerintah telah repot-repot menyelidiki apakah departemen yang diberikan hibah membeli perangkat lunak pengawasan yang diskriminatif.

“Kami mendesak Anda untuk menghentikan semua hibah Departemen Kehakiman untuk sistem prediksi kepolisian sampai DOJ dapat memastikan bahwa penerima hibah tidak akan menggunakan sistem tersebut dengan cara yang berdampak diskriminatif,” bunyi surat tersebut. Departemen Kehakiman sebelumnya mengakui bahwa mereka tidak melacak apakah departemen kepolisian menggunakan pendanaan yang diberikan di bawah Program Bantuan Keadilan Edward Byrne Memorial untuk membeli alat prediksi kepolisian yang disebut.

Dipimpin oleh Senator Ron Wyden, seorang Demokrat dari Oregon, para anggota parlemen mengatakan bahwa DOJ diwajibkan oleh undang-undang untuk “secara berkala meninjau” apakah penerima hibah mematuhi Bagian VI dari Undang-Undang Hak Sipil negara tersebut. Mereka menjelaskan bahwa DOJ jelas dilarang menyediakan dana untuk program yang terbukti diskriminatif berdasarkan ras, etnisitas, atau asal usul nasional, baik dengan sengaja maupun tidak.

Investigasi independen dalam pers menemukan bahwa alat “prediksi” kepolisian yang populer, yang dilatih dengan data kejahatan historis, sering kali mereplikasi bias yang telah lama ada, memberikan legitimasi ilmiah kepada penegakan hukum, setidaknya, sementara terus memperkuat polisi berlebihan di lingkungan yang didominasi oleh orang-orang kulit hitam dan Latino. Sebuah judul berita dari The Markup pada bulan Oktober dengan tegas menyatakan: “Perangkat Lunak Prediksi Kepolisian Buruk Dalam Memprediksi Kejahatan.” Cerita tersebut menceritakan bagaimana para peneliti di publikasi tersebut baru-baru ini memeriksa 23.631 prediksi kejahatan polisi – dan menemukan bahwa keakuratannya hanya sekitar 1 persen.

MEMBACA  iOS 17.4 dapat secara otomatis menambahkan pembelian Apple Card ke aplikasi pengelolaan anggaran iPhoneiOS 17.4 dapat secara otomatis menambahkan pembelian Apple Card ke aplikasi pengelolaan anggaran iPhone

“Sistem prediksi kepolisian bergantung pada data historis yang terdistorsi oleh laporan kejahatan palsu dan penangkapan yang tidak proporsional terhadap orang-orang kulit berwarna,” tulis Wyden dan anggota parlemen lainnya, yang meramalkan – seperti banyak peneliti yang lain – bahwa teknologi ini hanya menciptakan siklus umpan balik yang “berbahaya”. Pernyataan tersebut mencatat bahwa “prediksi yang bias digunakan untuk membenarkan penangkapan dan pemberhentian yang tidak proporsional di lingkungan minoritas,” yang lebih memperburuk statistik tentang di mana kejahatan terjadi.

Senator Jeffrey Merkley, Ed Markey, Alex Padilla, Peter Welch, dan John Fetterman juga menandatangani surat tersebut, begitu pula dengan Anggota Dewan Yvette Clarke.

Para anggota parlemen telah meminta agar laporan presiden mendatang tentang kepolisian dan kecerdasan buatan menyelidiki penggunaan alat prediksi kepolisian di AS. “Laporan tersebut harus menilai akurasi dan ketepatan model prediksi kepolisian di kelas-kelas yang dilindungi, interpretabilitasnya, dan validitasnya,” tambah mereka, “termasuk batasan dalam menilai risiko yang ditimbulkan oleh kurangnya transparansi dari perusahaan yang mengembangkannya.”

Jika DOJ ingin melanjutkan pendanaan teknologi ini setelah penilaian ini, kata para anggota parlemen, setidaknya harus menetapkan “standar bukti” untuk menentukan model prediksi mana yang diskriminatif – dan kemudian menolak pendanaan untuk semua yang tidak memenuhi standar tersebut.