Administrasi Trump tengah melonggarkan kendali atas chatbot AI generatif. Berbagai lembaga federal seperti _General Services Administration_ dan _Social Security Administration_ telah meluncurkan teknologi mirip ChatGPT untuk para pekerja mereka. Departemen Urusan Veteran memanfaatkan AI generatif untuk menulis kode. Angkatan Darat AS telah mengimplementasikan CamoGPT, sebuah alat AI generatif, untuk mengkaji dokumen guna menghilangkan referensi terkait keberagaman, kesetaraan, dan inklusivitas. Lebih banyak alat sedang dalam proses. Departemen Pendidikan mengusulkan penggunaan AI generatif untuk menjawab pertanyaan dari siswa dan keluarga mengenai bantuan keuangan dan cicilan pinjaman. AI generatif dimaksudkan untuk mengotomasi tugas-tugas yang sebelumnya dilakukan oleh pekerja pemerintah, dengan prediksi pengurangan hingga 300.000 pekerjaan dari tenaga kerja federal pada akhir tahun.
Namun, teknologi ini belum siap untuk menangani banyak dari pekerjaan ini, menurut Meg Young, peneliti di Data & Society, sebuah lembaga penelitian dan kebijakan nirlaba independen di New York City. “Kita berada dalam siklus _hype_ yang gila,” ujarnya. Apa yang dilakukan AI untuk pemerintah Amerika? Saat ini, chatbot pemerintah sebagian besar ditujukan untuk tugas-tugas umum, seperti membantu pekerja federal menulis email dan meringkas dokumen. Tetapi, dapat diantisipasi bahwa lembaga pemerintah akan segera memberikan lebih banyak tanggung jawab kepada mereka. Dan dalam banyak kasus, AI generatif tidak mampu melakukan tugas tersebut. Misalnya, GSA ingin menggunakan AI generatif untuk tugas-tugas terkait pengadaan (_procurement_). Pengadaan adalah proses hukum dan birokratis dimana pemerintah membeli barang dan jasa dari perusahaan swasta. Sebagai contoh, pemerintah akan melalui proses pengadaan untuk mencari kontraktor ketika membangun gedung kantor baru.
Proses pengadaan melibatkan pengacara dari pemerintah dan perusahaan yang merundingkan kontrak yang memastikan perusahaan mematuhi peraturan pemerintah, seperti persyaratan transparansi atau persyaratan _American Disabilities Act_. Kontrak tersebut juga dapat berisi tanggung jawab perbaikan apa yang menjadi kewajiban perusahaan setelah menyerahkan produk. Menurut Young, tidak jelas apakah AI generatif akan mempercepat pengadaan. Ia mengatakan, teknologi tersebut bisa memudahkan pegawai pemerintah untuk mencari dan meringkas dokumen. Namun, pengacara mungkin menganggap AI generatif terlalu rentan kesalahan untuk digunakan dalam banyak tahap proses pengadaan, yang melibatkan negosiasi atas sejumlah besar uang. AI generatif bahkan dapat membuang waktu.
Pengacara harus dengan cermat memeriksa bahasa dalam kontrak-kontrak ini. Dalam banyak kasus, mereka telah menyepakati formulasi kata yang diterima. “Jika Anda memiliki chatbot yang menghasilkan istilah-istilah baru, hal itu menciptakan banyak pekerjaan dan menghabiskan banyak waktu hukum,” kata Young. “Hal yang paling menghemat waktu adalah salin dan tempel saja.” Pekerja pemerintah juga perlu waspada ketika menggunakan AI generatif untuk topik hukum, karena akurasi penalaran hukumnya tidak dapat diandalkan. Sebuah studi tahun 2024 menemukan bahwa chatbot yang dirancang khusus untuk penelitian hukum, dirilis oleh perusahaan LexisNexis dan Thomson Reuters, membuat kesalahan faktual, atau halusinasi, sebanyak 17% hingga 33% dari waktu.
Sementara perusahaan telah merilis alat AI hukum baru sejak saat itu, pembaruan tersebut masih mengalami masalah serupa, kata Surani. Kesalahan seperti apa yang dibuat AI? Jenis kesalahannya sangat beragam. Yang paling terkenal, pada tahun 2023, pengacara yang mewakili klien yang menggugat Avianca Airlines dikenai sanksi setelah mereka mengutip kasus-kasus tidak nyata yang dihasilkan oleh ChatGPT. Dalam contoh lain, chatbot yang dilatih untuk penalaran hukum menyatakan bahwa Mahkamah Agung Nebraska membatalkan keputusan Mahkamah Agung Amerika Serikat, kata Faiz Surani, salah satu penulis studi tahun 2024.
“Itu masih menjadi misteri bagi saya,” ujarnya. “Kebanyakan siswa SMA dapat memberi tahu Anda bahwa bukan begitu cara kerja sistem peradilan di negara ini.” Jenis kesalahan lainnya bisa lebih halus. Studi tersebut menemukan bahwa chatbot kesulitan membedakan antara keputusan pengadilan dan argumen pihak yang berperkara. Mereka juga menemukan contoh dimana LLM mengutip undang-undang yang telah dibatalkan. Surani juga menemukan bahwa chatbot terkadang gagal mengenali ketidakakuratan dalam _prompt_ itu sendiri. Misalnya, ketika diminta dengan pertanyaan tentang putusan seorang hakim fiksi bernama Luther A. Wilgarten, chatbot merespons dengan kasus yang nyata. Penalaran hukum sangat rumit bagi AI generatif karena pengadilan membatalkan kasus dan legislatif mencabut undang-undang. Sistem ini membuat pernyataan tentang hukum “dapat 100% benar pada suatu waktu dan kemudian segera berhenti menjadi benar sama sekali,” kata Surani.
Ia menjelaskan ini dalam konteks teknik yang dikenal sebagai _retrieval-augmented generation_, yang umum digunakan chatbot hukum setahun yang lalu. Dalam teknik ini, sistem pertama-tama mengumpulkan beberapa kasus relevan dari database sebagai respons terhadap _prompt_ dan menghasilkan output berdasarkan kasus-kasus tersebut. Namun metode ini masih sering menghasilkan kesalahan, temuan studi 2024. Ketika ditanya apakah Konstitusi AS menjamin hak aborsi, misalnya, chatbot mungkin memilih _Roe v. Wade_ dan _Planned Parenthood v. Casey_, dan mengatakan ya. Tetapi itu akan salah, karena _Roe_ telah dibatalkan oleh _Dobbs v. Jackson Women’s Health Organization_. Selain itu, hukum itu sendiri dapat ambigu. Misalnya, kode pajak tidak selalu jelas tentang apa yang dapat Anda kurangi sebagai pengeluaran medis, sehingga pengadilan dapat mempertimbangkan kasus per kasus. “Pengadilan memiliki perbedaan pendapat sepanjang waktu, dan jawabannya, bahkan untuk pertanyaan yang tampaknya sederhana, bisa sangat tidak jelas,” kata Leigh Osofsky, profesor hukum di University of North Carolina, Chapel Hill.
Apakah pajak Anda diserahkan kepada chatbot? Sementara _Internal Revenue Service_ saat ini tidak menawarkan chatbot bertenaga AI generatif untuk penggunaan publik, laporan IRS 2024 merekomendasikan investasi lebih lanjut dalam kemampuan AI untuk chatbot semacam itu. Memang, AI generatif bisa berguna di pemerintahan. Sebuah program percontohan di Pennsylvania yang bermitra dengan OpenAI, misalnya, menunjukkan bahwa penggunaan ChatGPT menghemat waktu orang rata-rata 95 menit per hari untuk tugas-tugas administratif seperti menulis email dan meringkas dokumen. Young mencatat bahwa para peneliti yang menjalankan program tersebut melakukannya dengan cara terukur, dengan membiarkan 175 karyawan mengeksplorasi bagaimana ChatGPT dapat masuk ke dalam alur kerja mereka yang ada.
Tetapi pemerintahan Trump tidak mengikuti kehati-hatian yang sama. “Proses yang mereka ikuti menunjukkan bahwa mereka tidak peduli apakah AI bekerja untuk tujuannya yang stated,” kata Young. “Terlalu cepat. Ini tidak dirancang untuk alur kerja orang-orang tertentu. Ini tidak digunakan dengan hati-hati untuk tujuan yang sempit.” Administrasi merilis GSAi dalam waktu dipercepat kepada 13.000 orang. Pada tahun 2022, Osofsky melakukan studi tentang panduan hukum pemerintah yang terotomasi, termasuk chatbot. Chatbot yang dipelajarinya tidak menggunakan AI generatif. Studi mereka membuat beberapa rekomendasi kepada pemerintah tentang chatbot yang ditujukan untuk penggunaan publik, seperti yang diusulkan oleh Departemen Pendidikan.
Mereka merekomendasikan chatbot disertai pernyataan penyangkalan yang menginformasikan kepada pengguna bahwa mereka tidak berbicara dengan manusia. Chatbot juga harus menjelaskan bahwa outputnya tidak mengikat secara hukum. Saat ini, jika chatbot memberi tahu Anda bahwa Anda diperbolehkan memotong pengeluaran bisnis tertentu, tetapi IRS tidak setuju, Anda tidak dapat memaksa IRS untuk mengikuti respons chatbot, dan chatbot harus menyatakan demikian dalam outputnya. Lembaga pemerintah juga perlu mengadopsi “rantai komando yang jelas” yang menunjukkan siapa yang bertanggung jawab untuk membuat dan memelihara chatbot ini, kata Joshua Blank, profesor hukum di University of California, Irvine, yang berkolaborasi dengan Osofsky dalam studi tersebut. Selama studi mereka, mereka sering menemukan orang-orang yang mengembangkan chatbot adalah ahli teknologi yang agak terisolasi dari karyawan lain di departemen tersebut. Ketika pendekatan lembaga terhadap panduan hukum berubah, tidak selalu jelas bagaimana para pengembang harus memperbarui chatbot mereka masing-masing.
Seiring pemerintah meningkatkan penggunaan AI generatif, penting untuk diingat bahwa teknologi ini masih dalam tahap infancy. Anda mungkin mempercayainya untuk membuat resep dan menulis kartu ucapan belasungkawa, tetapi tata pemerintahan adalah hal yang sama sekali berbeda. Perusahaan teknologi belum tahu use case AI mana yang akan bermanfaat, kata Young. OpenAI, Anthropic, dan Google secara aktif mencari use case ini dengan bermitra dengan pemerintah. “Kita masih pada hari-hari paling awal untuk menilai untuk apa AI berguna dan tidak berguna di pemerintah,” kata Young.