Kontrak $200 juta Anthropic dengan Departemen Pertahanan AS sekarang diragukan. Ini terjadi setelah Anthropic melaporkan kekhawatiran tentang cara Pentagon menggunakan model AI Claude mereka saat serangan ke Nicolas Maduro bulan Januari lalu.
“Hubungan Departemen Perang dengan Anthropic sedang ditinjau,” kata Juru Bicara Utama Pentagon Sean Parnell. “Negara kita membutuhkan partner yang bersedia membantu prajurit kita menang dalam setiap pertempuran. Pada akhirnya, ini tentang pasukan kita dan keamanan rakyat Amerika.”
Ketegangan meningkat beberapa minggu terakhir. Seorang pejabat tinggi Anthropic disebut menghubungi eksekutif senior Palantir untuk menanyai bagaimana Claude digunakan dalam serangan itu, menurut The Hill. Eksekutif Palantir itu menganggap pertanyaan itu sebagai ketidaksetujuan dan meneruskan detail pembicaraan itu ke Pentagon. (Presiden Trump bilang militer menggunakan senjata “pembuat bingung” dalam serangan yang membuat peralatan musuh “tidak bekerja.”)
“Anthropic belum mendiskusikan penggunaan Claude untuk operasi spesifik dengan Departemen Perang,” kata seorang juru bicara Anthropic. “Kami juga belum membicarakan ini, atau menyampaikan kekhawatiran, ke partner industri mana pun di luar diskusi rutin tentang hal-hal teknis saja.”
Inti perselisihan ini adalah aturan kontrak yang mengatur bagaimana model AI bisa dipakai dalam operasi pertahanan. CEO Anthropic Dario Amodei selalu menganjurkan batasan ketat pada penggunaan dan regulasi AI. Dia bahkan mengakui sulitnya menyeimbangkan keselamatan dengan keuntungan. Selama berbulan-bulan, perusahaan dan DOD telah bernegosiasi alot tentang cara Claude bisa digunakan dalam operasi militer.
Di bawah kontrak Departemen Pertahanan, Anthropic tidak mengizinkan Pentagon menggunakan model AI-nya untuk memata-matai warga Amerika secara massal atau untuk senjata otonom sepenuhnya. Perusahaan juga melarang teknologinya dipakai untuk aplikasi militer “mematiakan” atau “kinetik”. Keterlibatan langsung dalam tembak-menembak saat serangan ke Maduro kemungkinan melanggar aturan itu.
Di antara perusahaan AI yang berkontrak dengan pemerintah—termasuk OpenAI, Google dan xAI—Anthropic punya posisi menguntungkan. Claude adalah satu-satunya model bahasa besar yang diizinkan di jaringan rahasia Pentagon.
Posisi ini ditekankan oleh Anthropic. “Claude digunakan untuk berbagai keperluan intelijen di seluruh pemerintah, termasuk DoW, sesuai Kebijakan Penggunaan kami.”
Perusahaan “berkomitmen menggunakan AI terdepan untuk mendukung keamanan nasional AS,” bunyi pernyataan itu. “Kami sedang mengadakan percakapan produktif, dengan itikad baik, dengan DoW tentang cara melanjutkan pekerjaan itu dan menyelesaikan masalah kompleks ini dengan benar.”
Palantir, OpenAI, Google dan xAI tidak segera menanggapi permintaan komentar.
AI pergi berperang
Walaupun DOD mempercepat upaya mengintegrasikan AI ke operasinya, hanya xAI yang memberikan DOD izin menggunakan modelnya untuk “semua tujuan yang sah”. Perusahaan lain tetap punya batasan penggunaan.
Amodei telah lama memperingatkan tentang perlindungan pengguna, menawarkan Anthropic sebagai alternatif yang mengutamakan keselamatan dibanding OpenAI dan Google. “Saya sangat tidak nyaman dengan keputusan ini dibuat oleh beberapa perusahaan saja,” katanya bulan November lalu. Meski ada rumor Anthropic akan melonggarkan batasan, perusahaan kini menghadapi kemungkinan dikeluarkan dari industri pertahanan.
Seborang pejabat senior Pentagon memberitahu Axios bahwa Menteri Pertahanan Pete Hegseth hampir memutuskan untuk mengeluarkan Anthropic dari rantai pasokan militer. Ini akan memaksa siapapun yang ingin kerja sama dengan militer juga memutus hubungan dengan perusahaan itu.
“Ini akan merepotkan sekali untuk memisahkan diri, dan kami akan pastikan mereka bayar harga karena memaksa kami seperti ini,” kata pejabat senior itu.
Dianggap sebagai masalah risiko pasokan militer adalah sebutan khusus yang biasanya hanya untuk musuh asing. Contoh terdekat adalah larangan pemerintah pada tahun 2019 terhadap Huawei karena masalah keamanan nasional. Dalam kasus Anthropic, sumber mengatakan pejabat pertahanan sudah lama ingin mencari masalah dengan perusahaan dari San Francisco ini.
Komentar Pentagon adalah yang terbaru dalam perselisihan publik yang memanas. Pemerintah klaim bahwa membiarkan perusahaan menetapkan batasan etika untuk model mereka akan terlalu membatasi, dan banyaknya area abu-abu akan membuat teknologi itu tidak berguna. Saat Pentagon terus negosiasi dengan subcontractor AI untuk memperluas penggunaan, perdebatan publik ini menjadi pertempuran kecil untuk menentukan siapa yang akan mengatur penggunaan AI.