Sebuah ketegangan sedang memanas antara pemerintah Amerika Serikat dan Anthropic, salah satu perusahaan teknologi yang mengembangkan alat kecerdasan buatan (AI) untuk keperluan pertahanan dan sipil.
Berdasarkan laporan terkini, perangkat lunak Claude milik Anthropic digunakan dalam suatu operasi militer AS yang berujung pada penculikan Presiden Venezuela Nicholas Maduro pada Januari tahun ini.
Menteri Pertahanan AS Pete Hegseth dikabarkan memberikan waktu hingga Jumat bagi perusahaan tersebut untuk melonggarkan aturan mengenai penggunaan alat AI-nya oleh Pentagon, atau berisiko kehilangan kontrak pemerintahnya. Demikian dilaporkan The Associated Press dan Reuters pada Selasa, mengutip sumber-sumber yang tidak disebutkan namanya.
Namun, Anthropic bersikukuh tidak mencabut pengamanan yang mencegah teknologinya digunakan untuk pengawasan domestik di AS dan untuk memprogram senjata otonom yang dapat menyerang target tanpa campur tangan manusia.
Apa itu Anthropic?
Anthropic adalah perusahaan AI yang didirikan pada 2021 oleh mantan eksekutif OpenAI.
Perusahaan ini merupakan pengembang AI pertama yang digunakan dalam operasi rahasia oleh Departemen Pertahanan AS, yang berkantor pusat di Pentagon, Washington, DC.
Anthropic paling dikenal karena membangun Claude, sebuah model bahasa besar (large language model/LLM) populer, dan dengan cepat menjadi salah satu perusahaan pengembangan AI yang paling terkemuka.
LLM adalah jenis teknologi AI yang menghasilkan keluaran teks, visual, atau audio yang mirip dengan konten buatan manusia setelah menganalisis kumpulan data masif seperti buku, arsip, situs web, gambar, dan video.
Untuk penggunaan militer dan pertahanan, LLM dapat merangkum volume teks besar, menganalisis data, menerjemahkan, membuat transkrip, dan menyusun memo. Secara teori, mereka juga dapat digunakan untuk mendukung sistem senjata otonom atau semi-otonom, yang dapat mengidentifikasi dan menyerang target tanpa perlu instruksi manusia. Namun, sebagian besar perusahaan AI memiliki syarat yang melarang penggunaan ini.
Anthropic memposisikan diri sebagai pengembang yang “bertanggung jawab” dalam lanskap AI. Di situs webnya, perusahaan ini mendeskripsikan diri sebagai “Korporasi Kepentingan Publik” yang berkomitmen pada “pengembangan dan pemeliharaan AI canggih yang bertanggung jawab untuk manfaat jangka panjang umat manusia”.
Pada November lalu, perusahaan tersebut menyatakan bahwa kelompok peretasan yang didukung negara China telah memanipulasi kode Claude dalam upaya menyusup ke sekitar 30 target secara global, termasuk agensi pemerintah, perusahaan kimia, lembaga keuangan, dan raksasa teknologi. Beberapa upaya ini berhasil.
Awal bulan ini, Mrinank Sharma, seorang peneliti keamanan AI di Anthropic, mengundurkan diri dari posisinya karena kekhawatiran tentang penggunaan AI.
Dalam pernyataan yang diposting di akun X-nya pada 9 Februari, Sharma menulis: “Dunia sedang dalam bahaya. Dan bukan hanya dari AI, atau senjata biologis, tetapi dari serangkaian krisis yang saling terkait yang terjadi pada saat ini juga.”
“Terlebih lagi, selama waktu saya di sini, saya berulang kali melihat betapa sulitnya untuk benar-benar membiarkan nilai-nilai kita mengatur tindakan kita. Saya melihat ini dalam diri saya sendiri, dalam organisasi, di mana kami terus-menerus menghadapi tekanan untuk mengesampingkan hal yang paling penting, dan juga di masyarakat luas,” tambahnya.
Perusahaan AI lain mana yang bekerja sama dengan militer AS?
Pentagon mengumumkan musim panas lalu bahwa mereka memberikan kontrak pertahanan kepada empat perusahaan AI – Anthropic, Google, OpenAI, dan xAI. Masing-masing kontrak bernilai hingga $200 juta.
Anthropic adalah perusahaan AI pertama yang disetujui untuk jaringan militer rahasia, di mana mereka dilaporkan bekerja dengan mitra seperti perusahaan perangkat lunak AS Palantir Technologies, yang dikritik karena hubungannya dengan militer Israel. xAI milik Elon Musk, yang mengoperasikan chatbot Grok, menyatakan bahwa Grok juga siap digunakan dalam pengaturan rahasia, menurut seorang pejabat senior Pentagon yang tidak disebutkan namanya, seperti dilaporkan AP.
Namun, pemerintahan Trump ingin dapat menggunakan produk-produk perusahaan AI ini tanpa batasan. Hegseth menyatakan bahwa visinya untuk sistem AI militer berarti sistem tersebut beroperasi “tanpa kendala ideologis yang membatasi aplikasi militer yang sah”, sebelum menambahkan bahwa “AI Pentagon tidak akan ‘woke'”.
Mengapa Anthropic Berbeda Pendapat dengan Pentagon?
Sumber-sumber melaporkan bahwa dalam pertemuan pada Selasa, Hegseth memberi CEO Anthropic Dario Amodei waktu hingga Jumat pukul 17.00 (22.00 GMT) untuk menyetujui penyediaan model AI Anthropic guna digunakan pada jaringan internal baru Pentagon dengan pembatasan yang lebih sedikit.
Pejabat Departemen Pertahanan AS memperingatkan mereka dapat menetapkan Anthropic sebagai risiko rantai pasokan atau menggunakan Undang-Undang Produksi Pertahanan untuk secara esensial memberi militer lebih banyak wewenang untuk menggunakan produknya bahkan jika perusahaan tidak menyetujui cara penggunaannya. Demikian menurut seorang yang mengenal pertemuan tersebut dan seorang pejabat senior Pentagon, yang keduanya tidak berwenang untuk berkomentar secara publik dan berbicara dengan kondisi anonim, seperti dilaporkan AP.
Amodei juga sebelumnya telah menyuarakan kekhawatiran etis tentang penggunaan AI oleh pemerintah yang tidak terkendali, termasuk bahaya drone bersenjata yang sepenuhnya otonom dan pengawasan massal berbantuan AI yang dapat melacak perbedaan pendapat.
“Sebuah AI yang kuat yang mengamati miliaran percakapan dari jutaan orang dapat mengukur sentimen publik, mendeteksi kantong-kantong ketidaksetiaan yang terbentuk, dan memberantasnya sebelum mereka tumbuh,” tulisnya dalam sebuah esai bulan lalu.
Terkait pertemuan Selasa tersebut, orang yang mengenalnya menyebut nada pertemuan “sopan” tetapi mengatakan Amodei menolak mengalah pada dua isu kunci – operasi penargetan militer yang sepenuhnya otonom dan pengawasan domestik terhadap warga negara AS.
Dalam penampilannya di podcast pada Selasa, tempat dia menjelaskan penolakannya untuk menuruti tuntutan Pentagon, Amodei mengulangi kekhawatirannya tentang “kawanan drone otonom” – kemungkinan drone otonom yang dapat menyerang target tanpa masukan manusia – dan pengawasan massal.
“Perlindungan konstitusional dalam struktur militer kita bergantung pada gagasan bahwa ada manusia yang akan menolak perintah ilegal dengan senjata otonom penuh,” kata Amodei, mencatat bahwa drone otonom tidak akan mampu membuat pembedaan seperti itu.
Pentagon menolak pembatasan etis Anthropic karena operasi militer memerlukan alat yang tidak memiliki batasan bawaan, kata pejabat senior Pentagon tersebut. Pejabat itu berargumen bahwa Pentagon hanya mengeluarkan perintah yang sah dan menekankan bahwa menggunakan alat Anthropic secara legal adalah tanggung jawab militer.
Bagaimana Claude Digunakan di Venezuela?
Pada 3 Januari, pasukan khusus AS menculik Maduro, yang hingga kini masih dalam tahanan AS dan menghadapi persidangan atas tuduhan narkoba dan senjata di New York.
Laporan media AS mengungkap pada 14 Februari bahwa Claude milik Anthropic digunakan dalam operasi untuk menyerang Caracas dan menangkap Maduro.
Seorang pejabat Anthropic yang tidak disebutkan namanya yang dihubungi The Wall Street Journal menolak berkomentar mengenai apakah Claude, atau model AI lainnya, digunakan dalam operasi apa pun. Namun, pejabat tersebut mengatakan bahwa penggunaan Claude di sektor swasta atau oleh pemerintah harus sesuai dengan kebijakan penggunaan Claude.
Menurut kebijakan penggunaan yang tercantum di situs web Anthropic, Claude tidak dapat digunakan untuk pengawasan, pengembangan senjata, atau “menghasut kekerasan”.
Sebanyak 83 orang, termasuk 47 tentara Venezuela, tewas selama operasi khusus AS di Venezuela.
Media AS juga melaporkan bahwa Anthropic telah bermitra dengan Palantir Technologies, yang alat-alatnya juga digunakan oleh Departemen Pertahanan dan oleh lembaga penegak hukum federal.
Tidak jelas bagaimana tepatnya Claude digunakan selama serangan ke Caracas pada Januari lalu, tetapi alat AI dapat digunakan untuk mengendalikan drone, menganalisis gambar, dan merangkum komunikasi yang disadap.
Pada Juli 2025, Francesca Albanese, Pelapor Khusus PBB untuk Hak Asasi Manusia di Wilayah Palestina yang Diduduki, merilis sebuah laporan yang memetakan perusahaan-perusahaan yang membantu Israel dalam pengusiran warga Palestina dan perang genosida-nya di Gaza, yang melanggar hukum internasional.
Laporan tersebut menemukan bahwa Palantir telah memperluas dukungannya kepada militer Israel sejak dimulainya perang genosida di Gaza pada Oktober 2023.