Mahkamah Agung AS mengingatkan akan bahaya AI dalam profesi hukum.

Supreme Court AS telah membahas penggunaan kecerdasan buatan (AI) dalam sistem hukum, mengakui potensinya sambil memperingatkan tentang “menghilangkan sifat kemanusiaan dari hukum.”

Dipublikasikan pada hari Minggu, Laporan Akhir Tahun 2023 tentang Yudisial Federal menawarkan gambaran selama 13 halaman tentang tahun lalu dalam sistem hukum AS. Tahun ini, Ketua Mahkamah Agung AS John G. Roberts, Jr. memilih untuk melanjutkan sejarahnya dalam membahas “masalah besar yang relevan dengan seluruh sistem pengadilan federal” dengan fokus pada AI, dengan membandingkan pembelajaran mesin dengan kemajuan teknologi masa lalu seperti komputer pribadi.

LIHAT JUGA:

ChatGPT saat ini menulis legislasi

“Bagi mereka yang tidak mampu mempekerjakan pengacara, AI dapat membantu,” kata Roberts. “AI menghadirkan alat yang baru dan sangat mudah diakses yang memberikan jawaban atas pertanyaan-pertanyaan dasar, termasuk di mana mencari templat dan formulir pengadilan, cara mengisinya, dan ke mana membawanya untuk disampaikan kepada hakim – semua tanpa harus keluar rumah.”

Namun, meskipun Roberts mengakui manfaat yang dapat ditawarkan oleh AI, ia juga mencatat bahwa hal itu datang dengan risiko, terutama ketika diterapkan secara tidak tepat. Secara khusus, ia mencatat bahwa banyak pengambilan keputusan dalam sistem peradilan memerlukan penilaian manusia, kebijaksanaan, dan pemahaman akan hal-hal yang rumit. Mempercayakan kekuatan semacam itu sepenuhnya pada algoritma kemungkinan besar akan menghasilkan hasil yang tidak memuaskan dan tidak adil, terutama mengingat bahwa model AI sering kali mengandung bias yang tidak disengaja.

“Dalam kasus pidana, penggunaan AI dalam menilai risiko melarikan diri, kecenderungan berulang, dan keputusan-keputusan lain yang sangat bersifat diskresioner yang melibatkan prediksi telah menimbulkan kekhawatiran tentang proses hukum, keandalan, dan potensi bias,” tulis Roberts. “Setidaknya saat ini, penelitian menunjukkan persepsi publik yang terus mengenai ‘kesenjangan keadilan manusia-AI,’ yang mencerminkan pandangan bahwa putusan manusia, dengan semua kelemahannya, lebih adil daripada apa pun yang dihasilkan oleh mesin.”

MEMBACA  Tingkatkan ke Windows 11 Pro hanya dengan $23. Begini caranya

Roberts menyatakan bahwa banyak kasus penggunaan AI membantu sistem peradilan memecahkan kasus dengan cara yang “adil, cepat, dan murah.” Namun, ia memperingatkan bahwa AI tidak selalu cocok untuk semua situasi, dan bahwa “pengadilan akan perlu mempertimbangkan penggunaan yang sesuai dalam litigasi” seiring perkembangan teknologi ini.

“Saya memprediksi bahwa para hakim manusia akan tetap ada untuk beberapa waktu,” kata Roberts. “Namun, dengan keyakinan yang sama, saya memprediksi bahwa pekerjaan yudisial – terutama di tingkat pengadilan tingkat pertama – akan sangat dipengaruhi oleh AI. Perubahan-perubahan itu akan melibatkan tidak hanya bagaimana para hakim melaksanakan tugas mereka, tetapi juga bagaimana mereka memahami peran yang dimainkan oleh AI dalam kasus-kasus yang dihadapi mereka.”

AI telah berdampak pada sistem hukum AS

Sayangnya, pemahaman para profesional hukum tentang AI sudah tertinggal di belakang penerapan yang terlalu bersemangat dalam setidaknya beberapa kasus, dengan teknologi pembelajaran mesin telah memiliki dampak meragukan pada sistem hukum AS sejauh ini.

Tahun lalu, dua pengacara dijatuhi denda karena mengutip kasus-kasus yang tidak ada dalam pengajuan hukum setelah menggunakan ChatGPT dari OpenAI. Chatbot AI tersebut telah sepenuhnya membuat enam kasus palsu, yang kemudian digunakan oleh para pengacara tersebut dalam argumen mereka. Menurut salah satu dari mereka, ia “tidak menyadari kemungkinan bahwa kontennya bisa palsu.”

Meskipun kasus ini dilaporkan secara luas, tidak semua pengacara sepertinya telah mendapatkan informasi untuk tidak terlalu bergantung pada AI. Seorang pengacara AS lainnya baru-baru ini mendapat teguran karena juga mengutip kasus palsu, setelah gagal memeriksanya setelah kliennya menghasilkannya menggunakan Google Bard. Klien tersebut adalah mantan pengacara Trump yang diberhentikan, Michael Cohen, yang mengatakan pekan lalu bahwa ia mengira Bard adalah “mesin pencari yang super” dan tidak mengetahui bahwa itu bisa menghasilkan hasil.

MEMBACA  FBI Masih Belum Bisa Membobol Ponsel Wali Kota NYC Eric Adams

Juga telah dilakukan upaya untuk menggunakan chatbot AI dalam menghasilkan argumen hukum. Awal tahun lalu, layanan hukum online DoNotPay membatalkan rencana untuk menggunakan chatbot AI-nya sebagai pengacara pembela di pengadilan setelah diberi peringatan bahwa mereka dapat dijerat dengan tuduhan praktik hukum tanpa izin. Chatbot DoNotPay dikembangkan menggunakan ChatGPT.

Perusahaan AI Luminance juga melakukan demonstrasi dari model bahasa besar mereka, Autopilot, pada bulan November lalu, dengan mengotomatisasi perundingan kontrak “tanpa campur tangan manusia.” Kecerdasan buatan bahkan digunakan oleh para pembuat undang-undang untuk menulis legislasi, baik di AS maupun di tingkat internasional.

Siapa pun yang pernah menyusun atau membaca dokumen hukum akan tahu bahwa itu biasanya adalah tugas yang melelahkan yang memerlukan pembacaan halaman-halaman panjang yang membosankan dari teks yang rumit dan membingungkan. Hanya dengan meminta AI untuk memeriksa kontrak, mengevaluasi pengajuan hukum, atau menghasilkan afidavit mungkin terasa seperti solusi yang lebih cepat dan kurang menyakitkan. Namun, bahkan menggunakan AI sebagai alat bantu juga memiliki bahaya, karena manusia bisa secara tidak sadar menyerap bias-bias AI tersebut.

Mungkin ada beberapa kasus penggunaan yang dipertimbangkan dengan matang untuk algoritma pembelajaran mesin dalam sistem hukum. Namun, teknologi ini harus didekati dengan hati-hati. Ketergantungan yang berlebihan pada AI dalam hukum membawa risiko nyata dalam melemahkan sifat kemanusiaan dalam sistem yang sudah terkenal birokratis.

Topik
Kecerdasan Buatan