Dalam berita terbaru “Kami telah menciptakan Torment Nexus dari novel fiksi ilmiah klasik Jangan Buat Torment Nexus”, The Guardian melaporkan bahwa pemerintah Inggris sedang mengembangkan algoritma prediksi yang akan bertujuan untuk mengidentifikasi orang yang paling mungkin melakukan pembunuhan. Apa yang bisa salah? Laporan itu menemukan bahwa Kementerian Kehakiman bertugas merancang sistem profil yang bisa menandai orang yang tampaknya mampu melakukan kejahatan kekerasan serius sebelum benar-benar melakukannya. Proyek Prediksi Pembunuhan (yang diubah namanya menjadi proyek “Berbagi Data untuk Meningkatkan Penilaian Risiko” agar tidak terlihat begitu eksplisit distopian) mengumpulkan data antara 100.000 dan 500.000 orang dalam upaya mengembangkan model yang bisa mengidentifikasi “prediktor dalam data untuk risiko pembunuhan.” Proyek ini mencakup data dari Kementerian Kehakiman (MoJ), Kementerian Dalam Negeri, Kepolisian Greater Manchester (GMP), dan Kepolisian Metropolitan di London. Catatan-catatan tersebut dilaporkan tidak terbatas pada mereka yang memiliki catatan kriminal tetapi juga mencakup data tersangka yang tidak dihukum, korban, saksi, dan orang yang hilang. Ini juga mencakup detail tentang kesehatan mental seseorang, kecanduan, cedera diri, bunuh diri, kerentanan, dan disabilitas – “penanda kesehatan” yang MoJ klaim “diharapkan memiliki kekuatan prediksi yang signifikan.” The Guardian melaporkan bahwa pejabat pemerintah menyangkal penggunaan data dari korban atau populasi rentan, dan bersikeras bahwa hanya data dari orang yang setidaknya memiliki satu catatan kriminal yang digunakan. Tidak perlu banyak untuk melihat betapa buruknya ide ini dan apa yang kemungkinan hasil akhirnya: penargetan tidak proporsional terhadap orang berpenghasilan rendah dan terpinggirkan. Tetapi hanya dalam kasus itu tidak jelas, Anda hanya perlu melihat alat keadilan prediktif sebelumnya yang telah diterapkan oleh Kementerian Kehakiman Inggris dan hasil yang dihasilkan. Misalnya, Sistem Penilaian Pelaku Kejahatan pemerintah digunakan oleh sistem hukum untuk “memprediksi” apakah seseorang kemungkinan akan mengulangi kejahatan, dan prediksi itu digunakan oleh hakim dalam keputusan hukuman. Tinjauan pemerintah terhadap sistem itu menemukan bahwa di antara semua pelaku kejahatan, kejahatan yang sebenarnya jauh di bawah tingkat prediksi, terutama untuk kejahatan non-kekerasan. Namun, seperti yang mungkin Anda bayangkan, algoritma menilai pelaku kejahatan kulit hitam kurang akurat daripada pelaku kejahatan kulit putih. Itu bukan hanya masalah Inggris, tentu saja. Alat-alat prediksi kepolisian ini secara teratur menilai orang tidak peduli di mana mereka diterapkan, dengan risiko yang terkait dengan komunitas yang terpinggirkan terdistorsi – hasil dari bias rasial yang ditemukan dalam data itu sendiri yang berasal dari penegakan hukum berlebihan sejarah terhadap komunitas warna dan komunitas berpenghasilan rendah yang menyebabkan interaksi polisi lebih banyak, tingkat penangkapan yang lebih tinggi, dan hukuman yang lebih ketat. Luaran-luaran itu dijadikan data, yang kemudian menjadi lebih buruk oleh pemrosesan algoritma dari informasi itu dan memperkuat perilaku yang menyebabkan hasil yang tidak merata. Bagaimanapun, hanya sebagai pengingat: kita seharusnya tidak merangkul sifat prediktif Precogs di Minority Report – kita seharusnya meragukannya.
