Semakin banyak kesalahan yang dibuat oleh AI ditemukan di dokumen hukum yang diajukan ke pengadilan. Hal ini membuat para pengacara dapat pengawasan yang lebih ketat.
Pengadilan di seluruh negeri sudah memberikan sanksi ke pengacara karena salah pakai LLM seperti ChatGPT dari OpenAI dan Claude dari Anthropic. AI ini pernah membuat kasus yang “khayalan“, menyarankan pengacara untuk buat keputusan pengadilan palsu, dan kasih kutipan yang tidak benar di dokumen hukum.
Para ahli bilang ke Fortune, kasus seperti ini akan makin banyak muncul. Bersama dengan itu, hukuman berat untuk pengacara yang salah gunakan AI juga akan makin banyak.
Damien Charlotin, seorang pengacara di HEC Paris, punya database tentang kasus halusinasi AI. Dia sudah hitung ada 376 kasus sampai sekarang, 244 di antaranya adalah kasus di AS.
“Tidak bisa disangkal kalau kita ada di kurva eksponensial,” katanya ke Fortune.
Charlotin bilang, pengacara bisa sangat rentan buat kesalahan. Karena di profesinya, pekerjaan didelegasikan ke tim, seringnya tidak baca semua materi yang dikumpulin teman kerja, dan suka salin-tempel kutipan tanpa cek fakta yang benar. Sekarang AI buat kebiasaan ini makin jelas terlihat saat pengacara coba menyesuaikan diri dengan teknologi baru.
“Kita ada di situasi di mana model-model ini memalsukan hukum,” kata Sean Fitzpatrick, CEO LexisNexis untuk Amerika Utara, UK & Irlandia, ke Fortune. “Taruhannya makin tinggi, dan itu cuma dari sisi pengacara saja.”
Fitzpatrick, yang mendukung aplikasi AI khusus untuk pasar hukum, akui kalau chatbot percobaan berbiaya rendah dari perusahaan teknologi besar itu bagus untuk hal seperti merangkum dokumen dan nulis email. Tapi untuk “pekerjaan hukum yang sebenarnya” seperti membuat draf permohonan, model-model ini “tidak bisa lakukan apa yang dibutuhkan pengacara,” kata Fitzpatrick.
Misalnya, membuat dokumen untuk pengadilan yang terkait keputusan cakupan Medicaid, tunjangan Jaminan Sosial, atau tuntutan pidana tidak boleh ada kesalahan yang dibuat AI, tambahnya.
Risiko lainnya
Memasukkan informasi sensitif ke model open-source juga berisiko melanggar hak istimewa pengacara-klien.
Frank Emmert, direktur eksekutif Pusat Hukum Internasional dan Komparatif di Indiana University dan ahli AI hukum, bilang ke Fortune bahwa model open-source bisa terima informasi istimewa dari pengacara yang memakainya.
Kalau ada orang lain yang tahu ini, mereka bisa saja balik merekayasa kontrak antara klien dan pengacara, contohnya, dengan menggunakan perintah yang tepat.
“Kamu tidak akan nemu kontrak lengkapnya, tapi kamu akan nemu informasi yang cukup jika mereka sudah mengunggah kontrak-kontrak ini,” kata Emmert. “Mungkin kamu bisa temukan nama klien… atau setidaknya, informasi yang bikin klien bisa dikenali.”
Kalau diunggah tanpa izin oleh pengacara, informasi ini bisa jadi informasi yang bisa ditemukan dan tersedia untuk publik, karena model open-source tidak lindungi hak istimewa, kata Fitzpatrick.
“Saya rasa cuma masalah waktu sebelum kita lihat pengacara kehilangan lisensi karena ini,” katanya.
Fitzpatrick bilang model seperti alat generatif perusahaannya, Lexis+ AI, yang dapat kontrak tujuh tahun sebagai penyedia informasi untuk kehakiman federal bulan Maret, mungkin jadi jawaban untuk risiko halusinasi dan privasi klien.
LexisNexis tidak latih LLM-nya dengan data pelanggan dan perintahnya dienkripsi. Ditambah, teknologinya “paling siap” untuk selesaikan masalah halusinasi karena mengambil dari “taman berdinding konten,” atau sistem tertutup yang diupdate setiap hari, kata Fitzpatrick.
Tapi, LexisNexis tidak klaim bisa jaga hak istimewa dan mengakui kewajiban itu selalu ada di tangan pengacara, kata perusahaan itu.
Tapi para ahli bilang ke Fortune, AI yang dipakai untuk tujuan hukum pada dasarnya punya risiko, open source atau bukan.
AI masih bayi di bidang hukum
Emmert bilang dia bagi model AI jadi tiga jenis: alat akses terbuka seperti ChatGPT, aplikasi internal yang dia sebut “model bahasa kecil,” dan “model bahasa menengah” seperti produk LexisNexis.
Rasa takut pada kesalahan sudah dorong firma hukum untuk batasi penggunaan model open-source dan malah kembangkan aplikasi internal. Aplikasi ini pada dasarnya server di dalam firma di mana pengacara mengunggah kontrak dan dokumen mereka dan mulai melatih model AI dengan dokumen itu, kata Emmert.
Tapi dibandingkan dengan jumlah data yang tersedia untuk model open-source, aplikasi internal akan selamanya punya jawaban yang lebih rendah kualitasnya, kata Emmert.
Dia bilang model menengah bisa dipakai untuk bantu pembuatan kontrak, tinjauan dokumen, evaluasi bukti, atau prosedur penemuan, tapi masih terbatas dalam hal yang bisa mereka ambil dibandingkan dengan internet terbuka.
“Dan pertanyaannya adalah, bisakah kita percaya sepenuhnya pada mereka? … Pertama, bahwa mereka tidak berhalusinasi, dan kedua, bahwa data benar-benar tetap istimewa dan pribadi,” kata Emmert.
Dia bilang kalau dia bagian dari firma hukum, dia akan ragu-ragu untuk buat kontrak dengan penyedia jenis ini dan menghabiskan banyak uang untuk sesuatu yang masih bayi dan mungkin akhirnya tidak terlalu berguna.
“Secara pribadi, saya percaya bahwa alat AI ini fantastis,” kata Emmert. “Mereka benar-benar bisa bantu kita selesaikan lebih banyak pekerjaan dengan kualitas lebih tinggi dan dengan investasi waktu yang jauh lebih sedikit.”
Tapi, dia peringatkan bahwa industri sedang ada di era baru yang butuh edukasi cepat tentang sesuatu yang cepat diadopsi tanpa benar-benar dipahami.
“Mulai dari akademisi tapi berlanjut di profesi, kita perlu latih setiap pengacara, setiap hakim, untuk jadi master dari kecerdasan buatan—bukan dalam arti teknis, tapi dalam menggunakannya,” kata Emmert. “Itulah tantangan sebenarnya.”