San Francisco, Amerika Serikat: Seorang hakim California telah membuka jalan bagi kemenangan potensial bagi Anthropic dalam upayanya mengatur senjata yang ditenagai kecerdasan buatan, suatu kemunduran bagi administrasi Presiden AS Donald Trump, yang membawa perusahaan selangkah lebih dekat untuk tidak kehilangan miliaran dolar dalam kontrak pemerintah.
Administrasi Trump telah menetapkan Anthropic sebagai “risiko rantai pasokan” karena sikapnya yang mendukung regulasi yang lebih ketat, sebuah langkah yang akan memblokir perusahaan dari kontrak militer tertentu.
Artikel Rekomendasi
Departemen Pertahanan Amerika Serikat mungkin secara ilegal berusaha menghukum Anthropic karena berupaya membatasi penggunaan model kecerdasan buatan (AI) miliknya untuk senjata tanpa pengawasan manusia atau untuk pengawasan massal, ujar seorang hakim distrik.
“Ini terlihat seperti upaya untuk melumpuhkan Anthropic,” kata Hakim Rita Lin dari pengadilan distrik California Utara pada hari Selasa.
Analis hukum mengatakan ini dapat menjadi landasan untuk memberikan Anthropic perintah praperadilan agar tidak dilabeli sebagai risiko rantai pasokan oleh Departemen Pertahanan.
“Tujuan yang mereka nyatakan tidak sepenuhnya didukung oleh Departemen Perang,” kata Charlie Bullock, peneliti senior di Institute for Law and AI, sebuah lembaga pemikir yang berbasis di Boston, mengenai penetapan Anthropic sebagai risiko rantai pasokan oleh Departemen Pertahanan.
Ini adalah kali pertama sebuah perusahaan AS ditetapkan seperti itu dan itu akan berakibat pada pembatalan kontrak pemerintah serta kontraktor pemerintah.
Pada 17 Maret, Departemen Pertahanan menyampaikan kepada pengadilan bahwa sikap Anthropic yang melarang produknya digunakan untuk senjata bertenaga AI tanpa pengawasan manusia atau untuk pengawasan dalam negeri akan melemahkan “kemampuannya untuk mengendalikan operasi sahnya sendiri”.
Gugatan Anthropic untuk mencabut penetapan tersebut berkembang menjadi perdebatan tentang sejauh mana kapasitas AI, bagaimana ia dapat membentuk kehidupan, dan apakah ia akan diatur.
“Kasus ini adalah momen untuk merenungkan hubungan seperti apa yang kita inginkan antara pemerintah dan perusahaan serta hak apa yang dimiliki warga negara,” kata Robert Trager, ko-direktor Oxford Martin AI Governance Initiative di Universitas Oxford.
Alison Taylor, profesor klinis asosiasi bidang bisnis dan masyarakat di Stern School of Business Universitas New York, mengatakan, “Di AS, teknologi bergerak maju seperti kereta barang dan gagasan tentang pengawasan manusia menjadi semakin sulit. Tetapi orang-orang khawatir tentang kehilangan pekerjaan terkait AI, pusat data, pengawasan, dan senjata. Ini menyebabkan opini publik mulai menjauh dari AI.”
Dalam dua minggu terakhir, sejumlah perusahaan teknologi, lembaga pemikir, dan kelompok hukum mengajukan berkas pengadilan untuk mendukung sikap Anthropic, menyerukan pengawasan dan regulasi AI untuk senjata dan pengawasan massal. Dukungan tersebut beragam, mulai dari Microsoft dan karyawan pesaing Anthropic yaitu OpenAI dan Google Inc, hingga Teolog Moral Katolik dan Ahli Etika, di antara lain-lain.
Dalam berkas mereka, insinyur dari OpenAI dan Google DeepMind, yang bertindak dalam kapasitas pribadi, mengatakan bahwa kasus ini memiliki “pentingna yang sangat besar untuk industri kami” dan regulasi sangat krusial karena “alur penalaran model AI sering tersembunyi dari operatornya, dan cara kerjanya yang internal bahkan tidak transparan bagi pengembangnya. Keputusan yang mereka buat dalam konteks mematikan bersifat irreversibel.”
Di tengah kekhawatiran semacam itu, Taylor dari NYU berkata, “Anthropic melakukan taruhan berisiko namun bagus dengan memposisikan diri sebagai perusahaan AI yang etis, yang akan membantunya membentuk regulasi ketika itu benar-benar terjadi.”
Halusinasi dan Masalah Lainnya
Anthropic telah banyak mengerjakan kontrak Pentagon dan model Claude Gov-nya telah diintegrasikan ke dalam Project Maven milik Palantir, yang membantu analisis data, pemilihan target, dan tugas-tugas sejenisnya, dilaporkan termasuk dalam perang AS-Israel yang sedang berlangsung melawan Iran.
Meskipun senjata bertenaga AI saat ini tidak digunakan tanpa pengawasan manusia, Anthropic meminta adanya pengawasan manusia yang berkelanjutan dalam kontraknya dengan Departemen Pertahanan karena, menurut mereka, model AI dapat berhalusinasi dan belum sepenuhnya andal. Meski halusinasi menjadi perhatian di semua model AI, potensi bahaya dari penggunaannya dalam senjata bisa berskala sangat besar.
Mary Cummings, profesor teknik sipil di George Mason University College of Engineering and Computing dan direktur Mason Autonomy and Robotic Center, menemukan bahwa separuh dari semua kecelakaan mobil self-driving di San Francisco, tempat sebagian besar mobil tersebut dioperasikan, disebabkan oleh mobil yang salah mengira ada objek di depannya dan mengerem sehingga menyebabkan mobil di belakangnya menabraknya.
“Kami menyebutnya pengereman fantom dan itu disebabkan oleh halusinasi,” katanya kepada Al Jazeera.
Dalam sebuah makalah Februari lalu, dia memperingatkan, “Integrasi AI ke dalam senjata akan menghadapi masalah keandalan yang serupa dengan mobil self-driving, termasuk halusinasi.”
Annika Schoene, asisten profesor yang meneliti dampak AI pada sistem kesehatan di Bouve College of Health Sciences Universitas Northeastern, mengatakan, “Halusinasi bukan satu-satunya kekhawatiran. Model seperti ini dapat memiliki alur kerja, bias data, atau bias model yang berbeda. Kita belum tahu seberapa aman mereka dari manipulasi asing. Ada begitu banyak aspek dalam hal ini dan kita belum sepakat tentang apa yang kita anggap aman dan apa yang tidak.”
Mengingat model AI, termasuk Claude Gov, tidak dibuat oleh militer, mereka perlu menguji seberapa andal model-model tersebut saat mengintegrasikannya ke dalam sistem militer, kata Aalok Mehta, direktur Wadhwani AI Center di Center for Strategic and International Studies, lembaga pemikir yang berbasis di Washington, DC.
“Evaluasi dan pengujian patokan bisa tertinggal. Model-model membanjiri sistem pengujian yang kita miliki.”
Yang lain berpendapat bahwa kesalahan bukan terutama disebabkan oleh teknologinya, tetapi lebih pada cara penggunaannya.
“Saya ingat, pada awal tahun 2020-an ada harapan bahwa dengan alat-alat seperti itu, kematian warga sipil akan menurun,” kata Andrew Reddie, profesor riset asosiasi di Goldman School of Public Policy Universitas California, Berkeley dan pendiri Berkeley Risk and Security Lab.
“Tetapi itu tidak benar-benar terjadi karena hal itu tergantung pada data yang Anda masukkan.”
Tantangan sesungguhnya bukan terletak pada aspek kecerdasan buatannya, melainkan pada pertanyaan: apa yang merupakan target yang sah?” ujarnya mengenai cara personel militer memilih target dari serangkaian opsi yang disediakan oleh perangkat tersebut.
Dalam hal pengawasan massal domestik, meski belum jelas apakah Pentagon saat ini menggunakan AI untuk tujuan itu, para peneliti OpenAI dan Google telah menekankan kekhawatiran terkait hal ini dalam dokumen pengadilan mereka.
Lebih dari 70 juta kamera, riwayat transaksi kartu kredit, serta data sejenis lainnya dapat dikumpulkan untuk memantau seluruh populasi AS, menurut mereka. “Bahkan kesadaran bahwa kemampuan semacam itu ada dapat menimbulkan efek menakutkan bagi partisipasi demokratis.”
### ‘Kemenangan Hubungan Masyarakat’
Hingga persidangan berlangsung dan di tengah meningkatnya ketegangan publik, Anthropic disebut memiliki hubungan yang lebih erat dengan Pentagon dibandingkan banyak pesaingnya—sebuah hubungan yang menguntungkan kedua belah pihak.
“Pentagon menganggap Anthropic memiliki produk terbaik untuk penggunaan militer, sehingga mereka memberi tekanan pada perusahaan tersebut,” kata Mehta dari CSIS.
Bagi Anthropic, “aspek ekonomi sangat menantang dalam industri AI. Oleh karena itu, bisnis sektor publik yang solid dengan kontrak bernilai miliaran dolar memang dibutuhkan,” tambahnya.
OpenAI mengambil alih posisi Anthropic untuk bekerja sama dengan Pentagon tak lama setelah kontrak Anthropic dihentikan. Namun, Anthropic tampaknya meraih “kemenangan dalam hubungan masyarakat, jika bukan dalam substansi,” ujar Taylor dari NYU.
Posisinya sebagai perusahaan AI yang beretika mungkin telah memenangkan popularitas publik. Unduhan Claude melonjak tajam dalam beberapa pekan setelah kontraknya dibatalkan.
Namun, fakta bahwa sebuah perusahaan harus menetapkan batasan sendiri justru mengindikasikan kegagalan pemerintah dalam melakukannya, kata Brianna Rosen, Direktur Eksekutif Oxford Programme for Cyber and Technology Policy.
“Untuk pertama kalinya, Amerika Serikat menggunakan AI untuk menghasilkan target dalam operasi tempur skala besar di Iran,” ungkapnya. “Sementara itu, para pembuat undang-undang masih memperdebatkan apakah perlu menetapkan batasan bagi senjata otonom penuh. Ketiadaan tata kelola itu sendiri merupakan risiko keamanan nasional.”
Debat mengenai regulasi senjata AI semakin memperlebar jarak antara keprihatinan publik dan keengganan untuk mengatur berlebihan inovasi AI di bidang lain. Jajak pendapat menunjukkan bahwa masyarakat AS khawatir akan hilangnya lapangan kerja dan dampak perubahan iklim dari AI. Polling Quinnipiac University pada April 2025 menemukan bahwa 69% warga AS berpendapat pemerintah dapat berbuat lebih banyak untuk mengatur AI.
Percikan ini telah mendorong industri AI menjadi donor utama dalam pemilu paruh waktu 2026. *Leading The Future*, sebuah super PAC yang menerima lebih dari $100 juta dari Presiden OpenAI Greg Brockman, pendiri Palantir Joe Lonsdale, dan lainnya, telah mendanai iklan untuk melawan Alex Bores, anggota majelis New York yang mencalonkan diri ke Kongres. Bores mengusulkan RUU RAISE yang mewajibkan pengembang AI mengungkapkan protokol keselamatan atau kecelakaan.
Pada Februari, Anthropic mengumumkan donasi sebesar $20 juta kepada *Public First Action*, sebuah PAC yang akan mendukung kandidat pro-regulasi AI, termasuk Bores.
Sementara perusahaan-perusahaan AI berupaya menyusun standar industri untuk pengujian dan evaluasi model mereka, Anthropic mendorong regulasi formal karena pelaku nakal dapat melanggar standar non-mengikat tersebut, jelas Bullock dari Institute for Law and AI.
Di antara putusan pengadilan atas kasus Anthropic dan pemilu paruh waktu yang mendatang, para ahli menyatakan bahwa peristiwa-peristiwa tersebut dapat menentukan arah regulasi AI.
“Ini dapat membuka ruang bagi pengembangan kebijakan yang lebih matang,” pungkas Rosen dari Oxford.