Minggu lalu, Thomson Reuters umumkan bahwa CoCounsel telah capai satu juta pengguna di 107 negara. Di waktu yang hampir bersamaan, Anthropic luncurkan rangkaian plugin baru untuk Claude yang dirancang untuk pekerjaan hukum, keuangan, dan HR.
Pengumuman ini, yang datang berdekatan, menunjukkan apa yang sebenarnya terjadi di AI hukum—dan kenapa screenshot Wikipedia dari beberapa minggu lalu jadi semakin penting.
Beberapa minggu lalu, seorang founder memposting di X tentang seorang penasihat hukum yang mencoba Claude untuk tinjau kontrak. AI itu mengambil informasi dari Wikipedia.
Banyak tanggapan. Pihak yang ragu-ragu dengan AI bilang model dasar belum siap untuk pekerjaan hukum. Pihak yang mendukung anggap itu hanya masalah sementara. Kedua sisi luput melihat apa yang sebenarnya ditunjukkan screenshot itu tentang arah pasar.
Saya telah bertahun-tahun membangun AI untuk pengacara di Thomson Reuters. Momen Wikipedia itu bukan kegagalan AI. Itu kegagalan sistem. Memahami perbedaannya menentukan siapa yang menang dalam teknologi hukum dekade depan—dan pengumuman minggu ini perlihatkan pertarungan semakin sengit.
Konteks yang Hilang
Saat penasihat hukum itu mencoba Claude, sistem melakukan persis seperti yang dirancang: mengambil dari sumber yang tersedia. Tidak ada database riset hukum, tidak ada konten otoritatif. Hanya web terbuka, yang termasuk Wikipedia.
Kebanyakan reaksi terbagi dua. Satu bilang model dasar tidak bisa menangani pekerjaan hukum. Yang lain bilang model akan membaik. Keduanya luput soal masalah sebenarnya.
Claude dan ChatGPT sangat mampu. Masalahnya bukan kecerdasan, tetapi apakah sistem di sekitarnya dirancang untuk tugasnya, menggabungkan sumber otoritatif, pengawasan ahli, dan pengamanan praktis.
Ini masalah arsitektur.
Momen Anthropic
Pengumuman Anthropic membuat perbedaan ini semakin jelas. Mereka meluncurkan plugin spesifik departemen, termasuk untuk pekerjaan hukum yang bisa tinjau dokumen, tandai risiko, urutkan NDA, dan pantau kepatuhan. Perusahaan sekarang bisa hubungkan Claude Cowork ke Google Drive, Gmail, DocuSign, dan sistem perusahaan lain.
Ini jenis langkah yang mengguncang saham software bulan Februari lalu—saham kami di Thomson Reuters turun lebih dari 30%. Tapi ketika kami umumkan satu juta pengguna CoCounsel, saham kami naik 11%, kenaikan terbesar dalam sehari sejak 2009.
Pasar mulai paham sesuatu yang penting: ada perbedaan mendasar antara AI yang bisa otomatisasi alur kerja dan AI yang bisa menangani pekerjaan hukum yang otoritatif.
Pembagian Nyata dalam AI Hukum
Banyak kebingungan dalam debat AI hukum saat ini karena menganggap semua pekerjaan hukum sama, padahal tidak. Pekerjaan hukum bisa dibagi dua: pekerjaan yang butuh otoritas dan yang tidak.
Ada kategori pekerjaan hukum yang besar dan berharga yang tidak memerlukan sumber hukum otoritatif. Pengacara dan tim hukum rutin gunakan software untuk standarisasi format, bandingkan kontrak, kelola penagihan, atau otomatisasi alur kerja internal. Itu tidak butuh putusan pengadilan, undang-undang, atau validasi regulasi.
Di sinilah produk seperti Cowork, Harvey, dan Legora banyak beroperasi hari ini.
Kenapa Plugin Hukum Cowork Mengubah Segalanya
Plugin hukum Anthropic patut dapat perhatian khusus karena menyerang lapisan pekerjaan hukum non-otoritatif dengan sangat baik. Dengan fokus pada dokumen internal, alur kerja, dan efisiensi operasional, ia bersaing langsung dengan kasus penggunaan inti startup hukum.
Dengan konektor ke sistem yang ada dan kemampuan perusahaan untuk buat plugin kustom, Cowork memposisikan diri sebagai sistem operasi untuk pekerjaan operasi hukum. Itu ancaman langsung untuk startup AI hukum vertikal.
Tapi—dan ini penting—itu tidak menjadikan Cowork pengganti untuk sistem yang dirancang menangani pekerjaan hukum otoritatif. Mencampurkan kedua kategori ini mengaburkan apa yang sebenarnya terjadi di pasar.
Di Mana Otoritas Benar-Benar Penting
Hal berubah ketika pekerjaan hukum memerlukan otoritas:
- Meneliti masalah hukum yang belum terselesaikan
- Mengembangkan argumen baru
- Memvalidasi perjanjian terhadap undang-undang atau regulasi
- Menghasilkan pekerjaan yang harus dikutip, diaudit, dan dipertahankan
Tugas-tugas ini memerlukan konten otoritatif dan sistem yang dirancang untuk kelola risiko, akuntabilitas, dan kepercayaan.
Di sinilah Thomson Reuters bermain dengan CoCounsel.
Saat kami bangun CoCounsel, kami tidak hanya bungkus model dasar dengan antarmuka. Kami integrasikan database Westlaw, berisi jutaan putusan pengadilan, undang-undang, dan regulasi yang dikurasi puluhan tahun oleh ahli hukum. Kami hubungkan Practical Law, dengan ribuan catatan praktik dan dokumen yang dibuat pengacara.
Konten itu butuh waktu puluhan tahun dan miliaran dolar untuk dibangun. Itu tidak bisa diciptakan ulang hanya dengan fine-tuning.
Apa yang Sebenarnya Ditunjukkan Screenshot Wikipedia
Insiden Wikipedia menyoroti apa yang terjadi ketika AI tanpa infrastruktur otoritatif digunakan untuk tugas yang membutuhkannya. Anda dapatkan hallucination dan kesalahan, dan yang paling penting, Anda kehilangan kepercayaan.
Ini tidak unik untuk Claude. Sistem apa pun yang diminta melakukan pekerjaan hukum otoritatif tanpa sumber otoritatif akan gagal dengan cara serupa—bahkan dengan plugin paling canggih sekalipun.
Kenapa Mengorganisir Hukum Sangat Sulit
Hukum itu berantakan. Terfragmentasi di banyak yurisdiksi dan banyak yang belum sepenuhnya digital. Ia berubah terus-menerus.
Di Thomson Reuters, kami telah membangun sistem AI, pipeline data, dan alur kerja editorial, dan kami pekerjakan ribuan ahli hukum untuk mengorganisir hukum menjadi sistem yang bisa dicari dan terus diperbarui, untuk manusia dan mesin. Banyak perusahaan telah coba meniru ini. Kebanyakan gagal.
Kami sambut inovasi karena itu membuat kami lebih baik, tapi penting untuk jujur tentang betapa sulitnya masalah ini.
Artinya Bagi Pasar
Saya percaya pekerjaan hukum paling berharga dan berisiko tinggi memerlukan otoritas. Itulah AI yang kami bangun di Thomson Reuters—CoCounsel sekarang dipercaya satu juta profesional di lebih 107 negara untuk pekerjaan di mana kesalahan bukan sebuah pilihan. Kami akan terus adopsi alat dan teknik terbaik, termasuk inovasi dari penyedia model dasar seperti Anthropic, untuk wujudkan visi itu.
Di sisi lain, perusahaan seperti Harvey dan Legora menghadapi posisi strategis yang semakin sulit. Mereka sekarang berada di antara perusahaan mapan dengan infrastruktur otoritatif, perusahaan model dasar dengan keunggulan skala besar, dan ekosistem plugin perusahaan Anthropic yang bisa tangani pekerjaan hukum operasional. Itu bukan posisi yang mudah untuk bersaing jangka panjang.
Langkah Anthropic ke plugin hukum tidak mengancam apa yang kami lakukan—itu memperjelasnya. Pasar sedang terbelah menjadi AI operasional dan AI otoritatif. Keduanya berharga. Tapi keduanya bukan hal yang sama.
Screenshot Wikipedia itu tidak membuktikan AI tidak bisa melakukan pekerjaan hukum. Itu membuktikan bahwa AI hukum memerlukan lebih dari sekadar model yang cerdas—bahkan yang dilengkapi plugin canggih sekalipun.
Ia memerlukan konten otoritatif, keahlian domain mendalam, infrastruktur, dan sistem tata kelola yang dirancang untuk risiko profesional. Pengumuman minggu ini dari Anthropic dan Thomson Reuters buktikan perpecahan ini nyata dan tumbuh.
Perusahaan yang paham ini akan menang. Sisanya pada akhirnya akan belajar dengan cara yang sulit.
Pendapat yang diungkapkan dalam tulisan komentar Fortune.com adalah pandangan penulisnya dan tidak selalu mencerminkan pendapat dan keyakinan Fortune.