Eksekutif LexisNexis: “Hanya Soal Waktu” Pengacara Dicabut Izinnya karena Kesalahan AI

Semakin banyak kesalahan yang dibuat oleh AI yang ditemukan di dokumen hukum yang diajukan ke pengadilan membuat para pengacara dapat perhatian lebih.

Pengadilan di seluruh negeri telah memberi sanksi pada pengacara karena salah gunai model AI seperti ChatGPT dari OpenAI dan Claude dari Anthropic. Model-model ini telah membuat kasus yang “khayalan”, menyarankan pengacara untuk membuat-buat keputusan pengadilan untuk memperkuat argumen mereka, dan memberikan kutipan yang salah dalam dokumen hukum.

Para ahli bilang ke Fortune bahwa akan ada lebih banyak kasus seperti ini muncul—bersamaan dengan hukuman berat untuk pengacara yang salah gunai AI.

Damien Charlotin, seorang pengacara dan peneliti di HEC Paris, mengelola database kasus halusinasi AI. Dia sudah menghitung 376 kasus sampai saat ini, 244 di antaranya adalah kasus di AS.

“Tidak bisa dipungkiri bahwa kita berada di kurva eksponensial,” katanya ke Fortune.

Charlotin menunjukkan bahwa pengacara bisa sangat rentan terhadap kesalahan, karena orang-orang di profesinya memberi tugas ke tim, sering tidak baca semua bahan yang dikumpulkan rekan kerja, dan salin-tempel string kutipan tanpa metode cek fakta yang benar. Sekarang AI membuat praktik ini lebih terlihat karena pengacara harus menyesuaikan diri dengan teknologi baru.

“Kita ada situasi di mana model-model ini membuat-buat hukum,” kata Sean Fitzpatrick, CEO LexisNexis untuk Amerika Utara, UK & Irlandia, ke Fortune. “Taruhannya semakin tinggi, dan itu hanya dari sisi pengacara.”

Fitzpatrick, yang mendukung aplikasi AI yang dibuat khusus untuk pasar hukum, mengakui bahwa chatbot percobaan berbiaya rendah dari raksasa teknologi itu bagus untuk hal seperti meringkas dokumen dan menulis email. Tapi untuk “pekerjaan hukum yang sebenarnya” seperti menyusun permohonan, model-model itu “tidak bisa melakukan apa yang pengacara butuhkan,” kata Fitzpatrick.

MEMBACA  Dapatkan 1TB penyimpanan awan seumur hidup hanya dengan £90

Misalnya, membuat dokumen yang siap untuk pengadilan untuk kasus yang mungkin melibatkan keputusan cakupan Medicaid, tunjangan Jaminan Sosial, atau penuntutan pidana tidak boleh ada kesalahan yang dibuat AI, tambahnya.

Resiko lainnya

Memasukkan informasi sensitif ke dalam model open-source juga beresiko melanggar hak istimewa pengacara-klien.

Frank Emmert, direktur eksekutif Pusat Hukum Internasional dan Komparatif di Indiana University dan ahli AI hukum, bilang ke Fortune bahwa model open-source bisa menerima informasi istimewa dari pengacara yang menggunakannya.

Kalau orang lain tahu itu, mereka bisa merekayasa balik kontrak antara klien dan pengacara, contohnya, dengan menggunakan perintah yang tepat.

“Kamu tidak akan temukan kontrak lengkapnya, tapi kamu akan temukan cukup informasi di luar sana kalau mereka sudah mengunggah kontrak-kontrak ini,” kata Emmert. “Mungkin kamu bisa temukan nama klien… atau setidaknya, kamu tahu, informasi yang membuat klien bisa dikenali.”

Kalau diunggah tanpa izin oleh pengacara, ini bisa menjadi informasi yang bisa ditemukan, tersedia untuk publik, karena model open-source tidak melindungi hak istimewa, kata Fitzpatrick.

“Saya pikir hanya masalah waktu sebelum kita lihat pengacara kehilangan lisensi mereka karena ini,” katanya.

Fitzpatrick bilang model seperti alat generatif perusahaannya Lexis+ AI, yang menandatangani kontrak tujuh tahun sebagai penyedia informasi untuk kehakiman federal bulan Maret, mungkin jadi jawaban untuk resiko halusinasi dan privasi klien.

LexisNexis tidak melatih model AI-nya pada data pelanggan dan perintahnya dienkripsi. Ditambah, teknologinya “paling siap” untuk selesaikan masalah halusinasi karena mengambil dari “taman berpagar konten,” atau sistem tertutup yang diperbarui setiap hari, kata Fitzpatrick.

Meski begitu, LexisNexis tidak klaim untuk menjaga hak istimewa dan mengakui bahwa kewajiban itu selalu ada pada pengacara, kata perusahaan itu.

MEMBACA  8 Cara Agar Tetap Aman Saat Menggunakan Aplikasi Perbankan Seluler

Tapi para ahli bilang ke Fortune AI yang digunakan untuk tujuan hukum punya resiko, open source atau bukan.

AI masih bayi di bidang hukum

Emmert bilang dia mengkategorikan model ke dalam tiga kelompok: alat akses terbuka seperti ChatGPT, aplikasi internal yang dia sebut “model bahasa kecil,” dan “model bahasa menengah” seperti produk LexisNexis.

Rasa takut akan kesalahan telah mendorong firma untuk batasi penggunaan model open-source dan malah kembangkan aplikasi internal, yang pada dasarnya adalah server di firma di mana pengacara mengunggah kontrak dan dokumen mereka dan mulai melatih model AI dengan data itu, kata Emmert.

Tapi dibandingkan dengan jumlah data yang tersedia untuk model open-source, aplikasi internal akan selalu punya jawaban yang lebih rendah, kata Emmert.

Dia bilang model menengah bisa digunakan untuk bantu dengan penyusunan kontrak, tinjauan dokumen, evaluasi bukti, atau prosedur penemuan, tetapi masih terbatas dalam apa yang bisa mereka ambil dibandingkan dengan internet terbuka.

“Dan pertanyaannya adalah, bisakah kita percaya sepenuhnya? … Pertama, bahwa mereka tidak berhalusinasi, dan kedua, bahwa datanya benar-benar tetap istimewa dan pribadi,” kata Emmert.

Dia bilang kalau dia bagian dari firma hukum, dia akan ragu untuk berkontrak dengan penyedia jenis ini dan menghabiskan banyak uang untuk sesuatu yang masih bayi dan mungkin akhirnya tidak terlalu berguna.

“Secara pribadi, saya percaya bahwa alat-alat AI ini fantastis,” kata Emmert. “Mereka benar-benar bisa bantu kita selesaikan lebih banyak pekerjaan dengan tingkat kualitas yang lebih tinggi dengan investasi waktu yang jauh lebih rendah.”

Meski begitu, dia peringatkan bahwa industri ini berada di era baru yang membutuhkan pendidikan yang dipercepat tentang sesuatu yang cepat diadopsi tanpa benar-benar dipahami.

MEMBACA  Membeli Rumah Tanpa KPR Hanya dalam 3 Tahun!

“Mulai di akademisi tetapi berlanjut di profesi, kita perlu latih setiap pengacara, setiap hakim, untuk jadi master kecerdasan buatan—bukan dalam arti teknis, tetapi menggunakannya,” kata Emmert. “Itu benar-benar di mana tantangannya.”