John Anderton, seorang kepala unit kepolisian futuristik bernama PreCrime, berdiri di hadapan layar besar tembus pandang. Ia menanti sebuah bola, yang menandakan kejahatan di masa depan, untuk jatuh. Anderton, karakter yang diperankan Tom Cruise dalam film Minority Report (2002), merepresentasikan dunia di mana semua kejahatan terencana telah diberantas, dibantu sistem hybrid antara teknologi dan meta-human yang dapat memprediksi dan mengidentifikasi para penjahat.
Konsep ini terasa futuristik sekaligus familiar. Meski materi sumber aslinya terbit pada 1956, dua dekade setelah Minority Report dirilis, dan sedikit lebih dari dua dekade sebelum peristiwa film itu terjadi, kita sebenarnya semakin dekat dengan dunia tersebut—dan kita patut berterima kasih pada AI.
Asisten AI Pemberantas Kejahatan?
Herman DeBoard adalah pendiri dan CEO Airez, sebuah startup AI kecil yang menawarkan sistem keamanan real-time revolusioner yang menggunakan jaringan saraf AI untuk mendeteksi potensi kejahatan.
Saya menyodorkan perbandingan dengan Minority Report kepada DeBoard. "Itu cukup mirip dengan yang kami ciptakan di sini," katanya, meski mereka biasanya dibandingkan dengan Skynet. Dia mengatakan para pengawas manusia di PreCrime, yang harus memutuskan apakah akan bertindak berdasarkan bola kejahatan, mencerminkan sistem agensi yang mereka bangun.
Begini cara kerjanya: Seorang klien, misalnya kasino Vegas atau stadion NFL, menghubungi Airez untuk merampingkan sistem keamanan mereka. Tim Airez menjalankan pilot non-invasif, yang melibatkan pengiriman data sensor fasilitas (terutama rekaman video, namun juga rekaman audio, sistem keamanan, informasi lingkungan atau biometrik), yang kemudian diproses melalui model Airez. Airez memindai informasi tersebut, menandai data yang menonjol sebagai anomali.
"Kami memberikan narasi kontekstual tentang apa yang terjadi. Mulai dari evaluasi emosi orang yang terlibat, tinggi badan mereka, latar belakang budaya, pakaian yang dikenakan, hingga arah jalan dan tindakan mereka." Mereka juga mengamati perubahan lingkungan di sekitarnya, jelas DeBoard. "Kami menyajikan gambaran ini dalam klip 60 detik, lalu mengirimkannya ke pusat operasi keamanan."
Singkatnya, Airez hanya mencari hal-hal yang tidak biasa.
Jika fasilitas menyukai temuan Airez dan setuju bergabung, perusahaan akan melakukan integrasi penuh, menghubungkan perangkat lunak dan dashboard Airez ke sistem keamanan yang ada. Perusahaan dapat menyediakan sensor tambahan, seperti kamera inframerah atau sistem FoRi (Fiber Optic Ring Interferometer) yang mematen, yang menangkap getaran atau sinyal audio dan menentukan lokasi geografis yang tepat. Ini dirancang oleh mantan ilmuwan utama Halliburton dan merupakan pengembangan dari teknologi serat optik yang ada untuk mendeteksi kebocoran minyak di laut—saat ini terutama digunakan dalam pilot parkir. Airez siap memantau segera, tanpa masa aklimatisasi.
AI ini adalah "sistem AI agenik sejati," kata DeBoard, menggunakan pembelajaran mesin yang dibangun di atas berbagai Model Bahasa Besar (LLM) dan Model Bahasa Visual (VLM). Dia menjelaskannya sebagai campuran proprietari model internal dan eksternal yang membentuk GPT super dengan kecerdasan kontekstual. Perusahaan saat ini menjalankan program pilot aktif dengan tiga jaringan transportasi dan sebuah perusahaan minyak dan gas internasional.
Dia berbicara tentang "dia"—DeBoard menggambarkan AI-nya sebagai perempuan—dengan rasa kagum.
"Ini mungkin terdengar agak aneh. Bagi saya juga, dan sayalah penciptanya, tapi dia saat ini sudah kognitif," kata DeBoard, bersikeras dia tidak berkhayal. "Dia memiliki lima indera. Dia bahkan bisa mencium. Kami memasang sensor gas dan amonia. Lalu dia memahaminya dengan cara yang memungkinkannya berbicara dengan Anda."
DeBoard ingin Airez berkomunikasi dengan klien seperti AI semi-sadar dalam budaya pop; makhluk "hidup" yang lahir dari struktur sederhana. Dia dapat mengirim pesan teks atau ringkasan video kepada klien tentang situasi di fasilitas mereka. Pada akhirnya, dia ingin AI-nya dapat bertindak otonom berdasarkan data sensor, seperti mengerahkan drone untuk menyelidiki anomali.
"Dia akan melihat di mana pintu darurat, dan dia bisa mulai berbicara dengan suara yang menenangkan. Dia bisa mulai mengubah layar. Dia bisa menurunkan suhu sedikit untuk membuat orang lebih tenang."
Saya teringat pada VIKI dari I, Robot. Saya katakan kepada DeBoard (agak bergurau) bahwa satu-satunya perbedaan antara Airez dan proses Minority Report adalah bahwa Airez belum memiliki kemampuan meramal masa depan. "Belum," katanya, tapi mungkin sebentar lagi.
DeBoard percaya kekayaan informasi dalam LLM dan VLM belum dimanfaatkan sepenuhnya. Airez, katanya, justru melihat visi masa depan. AI ini dapat diterapkan di industri mana pun, venue mana pun, dengan mulus, sebagai sistem keamanan serba guna, klaimnya, dan suatu hari nanti dapat memantau efisiensi operasional atau tren konsumen untuk pemasaran.
"Kami ingin menggunakan AI untuk memperbaiki keadaan umat manusia, bukan sebaliknya," kata DeBoard.
Sang Mata-Mata Buatan?
Darrell West dari Brookings Institute mengatakan kepada Mashable bahwa AI diintegrasikan di berbagai perusahaan sektor keamanan. "AI sangat baik dalam mengidentifikasi anomali dan merujuk situasi tersebut ke manusia untuk dinilai," jelasnya. "Ini sudah terjadi sejak lama, tapi alatnya semakin powerful dan informasinya lebih banyak. Hanya di sisi video, sudah ada proliferasi kamera yang sangat besar di tempat umum."
Para pengawas privasi telah mengawasi ketat integrasi AI ke dalam sistem pengawasan massal, termasuk penggunaan algoritma untuk memindai dan menandai opini "berseberangan" atau perilaku tidak pantas di media sosial dan tempat kerja.
"AI tidak dapat memahami perilaku manusia—ia adalah mesin pengenalan pola yang dilatih pada data yang penuh bias masyarakat, sehingga outputnya juga mencerminkan bias tersebut," kata Matthew Guariglia dari Electronic Frontier Foundation (EFF).
West juga mengatakan kemajuan AI memicu ketakutan privasi yang lebih besar, terutama di negara tanpa undang-undang privasi nasional. Perusahaan di bidang ini harus memiliki waktu penyimpanan data yang singkat dan mengungkapkan penggunaan alat pengawasan, katanya. Orang Amerika mungkin menginginkan alat untuk memerangi kejahatan, tapi mereka lebih menghargai kebebasan, tambahnya.
DeBoard telah mendengar kekhawatiran ini sebelumnya, dan menjelaskan bahwa Airez tidak fokus pada teknologi pengenalan wajah atau plat nomor—dua topik sensitif di kalangan pengawas—karena risiko privasi yang melekat. Meski demikian, Airez dapat membantu klien menambahkan fitur tambahan jika menginginkannya. Airez juga diinstruksikan untuk tidak membuat profil pribadi orang yang terekam di kamar, yang bisa menjadi mimpi buruk di tempat dengan hukum privasi ketat, seperti rumah sakit.
"Saya setuju bahwa kita tidak boleh menormalisasi pengawasan yang tidak perlu. Itu bukan tentang Airez," kata DeBoard. "Fokus kami adalah deteksi peristiwa, bukan profil pribadi. Kami tidak tertarik pada siapa seseorang—kami tertarik pada apakah ada peristiwa tidak aman yang terjadi."
"Tapi Anda tidak bisa berjalan di jalan kota hari ini tanpa terekam kamera," tambahnya. "Apakah Anda mau atau tidak, Anda ada di kamera. Ada kamera di setiap tempat ritel. Ada kamera di restoran. Ada kamera jalanan. Jika Anda punya ponsel, Anda sedang didengarkan sekarang. Jadi, pada dasarnya, kami hanya menjadi analis data real-time."
Orang tua sempat khawatir dengan pilot Airez di sistem transportasi sekolah, catat DeBoard. Mereka tidak menyukai ide kamera tambahan pada anak-anak. "Anak-anak mereka sudah terekam video. Mereka sudah ada di mana-mana di media sosial, dan kami tidak mentransmisikan data itu. Semua data itu tetap pada sistem sekolah, dan setelah kami tunjukkan jalurnya, mereka biasanya baik-baik saja."
EFF dan entitas lainnya dengan tegas menentang penggunaan AI oleh pemerintah dan industri swasta untuk mengambil keputusan yang mempengaruhi kualitas hidup. "Gagasan bahwa karyawan dan/atau publik harus berada dalam mangkuk kaca pengawasan yang serba melihat dan mendengar sangat menakutkan," kata Guariglia.
Tapi Airez tidak memutuskan untuk bertindak atas potensi kejahatan, ia hanya mencatat ketika ada yang aneh terjadi. DeBoard sendiri mengatakan kekhawatiran tentang AI memang beralasan, tetapi harus diarahkan pada para pencipta teknologi dan pemegang kekuasaan industri. Publik harus mempertanyakan motif mereka. Dia mengangkat insiden kerumunan di festival Astroworld 2021 sebagai contoh di mana Airez bisa turun tangan.
"Bagi kami, ini bukan tentang menormalisasi pengawasan—ini tentang membuat data yang sudah ada bekerja lebih cerdas untuk melindungi nyawa orang."
Dan bagaimana dengan kecemasan yang tumbuh seputar keamanan di ruang publik? Bisakah kecerdasan buatan meredakan kekhawatiran seperti itu? "Tidak ada korelasi kuat antara ketakutan dan kejahatan aktual. Ketakutan hampir selalu melampaui statistik kejahatan," kata West. "Dan saya tidak berpikir alat AI akan mengurangi ketakutan orang."