Jack Quillin/iStock / Getty Images Plus
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
**Poin Penting ZDNET**
– Perplexity for Public Safety Organizations diluncurkan pada Januari.
– Polisi dapat menggunakannya, misalnya, untuk menganalisis foto TKP.
– Pengembang AI lain mungkin akan segera menyusul.
Startup kecerdasan buatan Perplexity telah meluncurkan inisiatif baru yang bertujuan menyediakan teknologinya bagi profesional keselamatan publik, termasuk aparat kepolisian. Diperkenalkan pekan lalu, Perplexity for Public Service Organizations menawarkan satu tahun gratis tingkat Enterprise Pro untuk hingga 200 pengguna, dengan opsi diskon bagi lembaga yang lebih besar.
Seperti diketahui pengguna rutin alat berbasis LLM seperti Perplexity dan ChatGPT, alat-alat ini rentan terhadap halusinasi, ketidakakuratan, pengulangan bias budaya yang meresap ke data pelatihannya, dan secara umum dirancang untuk mengoptimalkan keterlibatan alih-alih kesejahteraan manusia. Protokol penggunaan yang aman masih terus dalam pengembangan.
Implikasinya, dalam industri sensitif seperti penegakan hukum, kesalahan kecil dapat berdampak besar.
**Kasus Penggunaan Biasa, Konsekuensi Besar?**
Dalam pengumumannya, perusahaan menyatakan program ini bertujuan membantu petugas membuat keputusan yang lebih terinformasi secara real-time, serta mengotomatisasi tugas rutin seperti membuat deskripsi foto TKP, menganalisis berita dan transkrip kamera tubuh, serta mengubah kumpulan catatan penyidik menjadi laporan terstruktur yang rapi.
Terdengar cukup tidak berbahaya. Namun bagi Katie Kinsey, Kepala Staf dan Penasihat Kebijakan AI di Policing Project, justru itulah yang membuatnya menjadi sinyal bahaya.
Juga: Perubahan yang dibawa regulasi AI terkuat di AS pada 2026, menurut ahli hukum
“Yang berbahaya dari jenis kasus penggunaan seperti ini adalah ia dapat disajikan sekadar sebagai tugas administratif atau remeh,” ujarnya, seraya menambahkan bahwa tugas sehari-hari ini dapat berdampak besar pada hidup orang. “Banyak pengambilan keputusan penting, yang berujung pada dakwaan dan tuntutan, bersumber dari jenis kasus penggunaan yang mereka bahas di sini.”
Menggunakan chatbot untuk menyintesis catatan sekolah menjadi panduan belajar pribadi kecil kemungkinan berakibat fatal. Namun dalam penegakan hukum, di mana taruhannya jauh lebih tinggi, kesalahan kecil dapat berakibat serius.
Alat AI mungkin berhalusinasi dengan cara yang jelas dengan mengarang cerita tentang petugas yang berubah wujud menjadi katak, sehingga pengguna manusia dapat mengabaikan outputnya. Skenario yang lebih berbahaya adalah ketika sistem AI secara halus mengubah kebenaran dengan cara yang sulit dideteksi—misalnya, secara hipotetis menghalusinasikan detail kecil dalam laporan polisi, yang kemudian berujung pada keyataan salah. Sudah ada beberapa kasus pengacara menggunakan alat AI yang memalsukan preseden kasus dan detail lain saat digunakan untuk menyusun dokumen hukum; sekali lagi, detail kecil, konsekuensi yang berpotensi buruk.
Juga: Alat AI baru Perplexity memungkinkan penelusuran paten dengan bahasa alami—dan gratis
Dalam wawancara dengan ZDNET, juru bicara Perplexity menyatakan perusahaan ini berada dalam posisi baik untuk melengkapi personel keselamatan publik dengan alat AI, karena telah menjadikan akurasi sebagai bagian kunci produk dan model bisnisnya; alih-alih melatih model AI dari nol, Perplexity mengambil model dari pengembang lain seperti OpenAI dan Anthropic, lalu melatihnya ulang untuk meminimalkan halusinasi.
Meski demikian, kelemahan tetap ada. Studi terkini oleh European Broadcasting Union dan BBC menemukan bahwa ketika ditanya tentang berita terkini, Perplexity, bersama tiga chatbot terkemuka lainnya, sering menghasilkan respons yang “memiliki setidaknya satu masalah signifikan” terkait akurasi, sumber, atau kriteria lain.
Penentuan Tanggung Jawab
Semua ini memunculkan pertanyaan: Siapa yang seharusnya bertanggung jawab memastikan AI digunakan secara bertanggung jawab dalam penegakan hukum?
Sampai hadirnya chatbot bebas halusinasi—dan belum jelas apakah hal itu mungkin—penggunaannya adalah risiko pengguna. Hal itu juga berlaku bagi petugas kepolisian yang memilih menggunakan Perplexity atau alat AI lain bahkan untuk keperluan yang tampak biasa, menurut Andrew Ferguson, profesor di George Washington University Law School.
Juga: Alat AI baru Perplexity memungkinkan penelusuran paten dengan bahasa alami—dan gratis
“Ketika Anda bermain dengan kebebasan dan hak konstitusional, Anda perlu memastikan ada pengaman untuk akurasi… tanpa hukum atau aturan yang melindungi dari kesalahan, menjadi kewajiban polisi untuk memastikan mereka menggunakan teknologi ini dengan bijak,” katanya kepada ZDNET.
Di sisi lain, Kinsey percaya tanggung jawab seharusnya dibebankan pada pembuat kebijakan. “Masalahnya,” ujarnya, “tidak ada undang-undang yang mengatur persyaratan seperti apa yang harus diterapkan.”
Melihat ke Depan
Meski Perplexity menyatakan ini adalah program pertama jenisnya, hampir pasti bukan yang terakhir.
Pengembang AI menghadapi tekanan besar untuk memperluas basis pengguna sebanyak mungkin, dan departemen kepolisian memiliki sejarah panjang sebagai pengadopsi awal teknologi baru. Algoritma “prediktif policing” telah digunakan sejak awal 2000-an—dan terkadang dikritik karena diduga melanggengkan bias historis terhadap kelompok marginal serta kurang transparansinya. Belakangan ini, beberapa lembaga penegak hukum mulai menggunakan AI untuk pengenalan wajah dan deteksi kebohongan.
“Penegak hukum adalah klien yang baik, karena mereka akan tetap ada,” kata Kinsey. “Kita lihat hubungan antara industri swasta dan penegak hukum sepanjang waktu.”
Persaingan ketat dalam lomba AI dapat membuat perusahaan lain mengikuti langkah Perplexity dengan meluncurkan inisiatif yang ditujukan bagi polisi dan pejabat keselamatan publik lainnya.