Pengacara, hakim, dan orang lain di profesi hukum sudah menggunakan kecerdasan buatan dan pembelajaran mesin untuk mempermudah alur kerja mereka di dalam dan di luar pengadilan. Tetapi apa yang terjadi ketika AI yang sama digunakan untuk tujuan yang kurang etis?
Di tengah evolusi teknologi seperti rilis terbaru perangkat lunak AI generatif teks-ke-video dari OpenAI bernama Sora, potensi deepfakes di pengadilan tidak hanya menjadi mungkin, tetapi — menurut para ahli — sangat mungkin.
“Kemungkinan seseorang menyalahgunakan teknologi ini hari ini kemungkinan sudah terjadi,” kata Jay Madheswaran, CEO dan co-founder asisten kasus hukum AI Eve.
Sarah Thompson, chief product officer di BlueStar, perusahaan layanan litigasi dan teknologi, khawatir bahwa orang akan menggunakan deepfakes dalam proses pidana untuk “menciptakan bukti untuk memberikan alibi untuk aktivitas atau untuk mencoba membuktikan kesalahan atau kebenaran seseorang.”
Ini merupakan ancaman bagi sistem peradilan di seluruh dunia. Di Amerika Serikat khususnya, setiap orang, setidaknya pada level permukaan, tunduk pada “standar dan prinsip hukum yang ditegakkan dengan adil daripada tunduk pada keinginan pribadi perusahaan, individu, pemerintah, atau entitas lain,” menurut sebuah whitepaper tentang kloning AI dalam proses hukum dari Asosiasi Jurnalis Pengadilan Nasional (NCRA).
Setidaknya, litigasi memerlukan kesepakatan atas serangkaian fakta tertentu. “Ketika kita mulai mempertanyakan apa itu kebenaran,” kata Thompson, “di sinilah kita akan menghadapi banyak masalah.”
Risiko perubahan dalam proses peradilan
Selain risiko bukti yang diubah, penyederhanaan pelaporan pengadilan dengan AI membuka pintu untuk perubahan. “Ada banyak risiko yang sistem keadilan tawarkan dengan tidak memiliki orang yang bersertifikat untuk memiliki perawatan, hak milik, dan kontrol,” kata Kristin Anderson, presiden Asosiasi Jurnalis Pengadilan Nasional dan juru tulis pengadilan resmi di Pengadilan Distrik Judicial County of Denton, Texas.
Juru tulis pengadilan tradisional mengucapkan sumpah atas akurasi dan ketidaktertarikan, sesuatu yang bisa hilang dengan AI tanpa legislasi yang tepat. Melissa Buchman, seorang pengacara hukum keluarga di California, menguraikan skenario mimpi buruk dalam sebuah kolom yang ditulisnya untuk Los Angeles San Francisco Daily Journal, di mana “seluruh bagian dari kesaksian, termasuk […] pernyataan deskriptif tentang peristiwa mengerikan yang terjadi, hilang” karena kesalahan pelaporan AI.
Bahkan ketika rekaman lengkap ada, ada kesenjangan besar dalam pengenalan ucapan. Studi Universitas Stanford menemukan bahwa tingkat kesalahan untuk pembicara kulit hitam hampir dua kali lipat lebih tinggi daripada pembicara kulit putih.
Untuk melawan deepfakes, beberapa negara bagian telah mengesahkan undang-undang yang berkaitan dengan audio dan video yang diubah oleh AI, tetapi sebagian besar dari mereka berkaitan dengan pornografi deepfake. Undang-undang California yang menjadikan ilegal gambaran yang diubah dari konten eksplisit seksual adalah yang pertama dari jenisnya.
Namun, legislasi dan regulasi mengenai bukti digital dan pelaporan pengadilan belum banyak diterapkan. “Kita memiliki badan legislatif yang cenderung bergerak lambat dan tidak selalu paham tentang teknologi yang mencoba kita legislasi,” kata Thompson.
Sistem peradilan harus memperkuat proses-proses dalam mengotentikasi bukti digital, memasukkan proses-proses tersebut ke dalam Aturan Bukti Federal dan Aturan Prosedur Perdata Federal, tambah Thompson.
Tantangan terhadap ‘standar emas’ bukti audio, video
Sementara itu, Madheswaran mengatakan ada langkah-langkah yang bisa diambil sekarang untuk melawan risiko yang dihadapi deepfakes di pengadilan. “Secara historis, bukti audio dan video dianggap sebagai standar emas,” katanya. “Semua orang perlu memiliki sedikit pemikiran kritis dalam hal seberapa besar bobot yang sebenarnya harus diberikan pada bukti tersebut.”
Hakim bisa memberi tahu juri tentang kemungkinan bukti yang dipalsukan secara digital selama instruksi dan mulai mengembangkan preseden berdasarkan kasus-kasus yang melibatkan deepfakes. “Ini tidak akan menghentikan orang menggunakan deepfakes, tetapi setidaknya akan ada jalan menuju semacam keadilan,” kata Thompson.
Teknologi deteksi deepfake sedang dikembangkan oleh institusi seperti MIT, Northwestern, dan bahkan OpenAI sendiri, tetapi permainan kucing-kucingan antara pengembangan versus deteksi kemungkinan akan terus berlanjut (dan sebagian besar pengembangan AI hukum itu akan untuk kebaikan, membantu menghemat jam kerja pengacara dan demokratisasi akses representasi bagi bisnis dan individu dengan sumber daya terbatas).
Sementara itu, ketersediaan — dan keterjangkauan — ahli forensik digital yang bisa menangani deepfakes sering membuat metode autentikasi bukti ini sulit dijangkau.
Taruhan yang paling proaktif mungkin ada pada level perangkat. “Ada teknik yang ada hari ini yang bisa Anda masukkan langsung ke dalam pengumpulan data itu sendiri untuk membuatnya lebih dapat dipercaya,” kata Madheswaran. Sama halnya dengan perangkat yang menetapkan cap waktu dan geo-lokasi, bukti tertanam tambahan dapat mengotentikasi file asli atau menandai yang dipalsukan.
Ambil contoh alat baru dari Google. SynthID mengidentifikasi gambar yang dihasilkan oleh AI dengan menyematkan tanda air yang tidak mencolok ke dalam gambar untuk menandainya sebagai sintetis.
Seperti yang dijelaskan Thompson, solusinya harus mudah dan harus hemat biaya, agar benar-benar berhasil. Teknik seperti ini adalah keduanya.
Ketika berbicara tentang catatan resmi proses pengadilan, manusia yang terlatih dan bersertifikat harus hadir untuk menghindari representasi yang disengaja atau tidak disengaja (sampai saat ini, tidak ada AI yang didukung oleh pengawasan regulasi dan lisensi seperti juru tulis pengadilan resmi).
Menurut Undang-Undang Kecerdasan Buatan Nasional 2020, AI bisa “membuat prediksi, rekomendasi atau keputusan yang mempengaruhi lingkungan nyata atau virtual.” Hal itu tidak boleh dianggap enteng.
“Ini adalah masalah kepercayaan,” kata Madheswaran tentang deepfakes di pengadilan.
Mengingat keyakinan publik bahwa sistem keadilan AS bekerja sebagaimana mestinya berada pada level terendah dalam sejarah dengan hanya 44% kepercayaan publik, menurut survei Pew Research Center tahun 2023, sistem peradilan Amerika harus berhati-hati dalam menerapkan AI dan memantau penggunaannya.