Anthropic tidak dapat memanipulasi model AI generatifnya, Claude, setelah militer AS mengoperasikannya, ungkap seorang eksekutif dalam berkas pengadilan pada Jumat. Pernyataan ini dibuat menanggapi tuduhan dari pemerintahan Trump mengenai kemungkinan perusahaan melakukan intervensi terhadap alat-alat AI-nya selama perang.
“Anthropic tidak pernah memiliki kemampuan untuk menghentikan kerja Claude, mengubah fungsionalitasnya, memutus akses, atau dengan cara lain memengaruhi atau membahayakan operasi militer,” tulis Thiyagu Ramasamy, kepala sektor publik Anthropic, dalam berkas tersebut. “Anthropic tidak memiliki akses yang diperlukan untuk menonaktifkan teknologi atau mengubah perilaku model baik sebelum maupun selama operasi yang sedang berjalan.”
Pentagon telah berselisih dengan laboratorium AI terkemuka ini selama berbulan-bulan mengenai bagaimana teknologinya dapat digunakan untuk keamanan nasional—dan apa batasan penggunaan yang seharusnya. Bulan ini, Menteri Pertahanan Pete Hegseth memberi label Anthropic sebagai risiko rantai pasok, sebuah penunjukan yang akan mencegah Departemen Pertahanan menggunakan perangkat lunak perusahaan, termasuk melalui kontraktor, dalam beberapa bulan mendatang. Lembaga federal lainnya juga mulai meninggalkan Claude.
Anthropic mengajukan dua gugatan yang mempertanyakan konstitusionalitas larangan tersebut dan sedang mengupayakan perintah darurat untuk membatalkannya. Namun, pelanggan telah mulai membatalkan kesepakatan. Sidang untuk salah satu kasus dijadwalkan pada 24 Maret di pengadilan distrik federal di San Francisco. Hakim dapat memutuskan pembalikan sementara tak lama setelahnya.
Dalam berkas awal pekan ini, pengacara pemerintah menulis bahwa Departemen Pertahanan “tidak diharuskan untuk mentolerir risiko bahwa sistem militer krusial akan dibahayakan pada momen-momen penting untuk pertahanan nasional dan operasi militer aktif.”
Pentagon telah menggunakan Claude untuk menganalisis data, menulis memo, dan membantu menghasilkan rencana pertempuran, lapor WIRED. Argumen pemerintah adalah bahwa Anthropic dapat mengganggu operasi militer aktif dengan memutus akses ke Claude atau mendorong pembaruan yang berbahaya jika perusahaan tidak menyetujui penggunaan tertentu.
Ramasamy menampik kemungkinan itu. “Anthropic tidak memiliki *back door* atau ‘tombol pemutus’ jarak jauh,” tulisnya. “Personel Anthropic tidak dapat, misalnya, masuk log ke sistem Deprtemen Perang untuk memodifikasi atau menonaktifkan model selama suatu operasi; teknologinya sama sekali tidak berfungsi dengan cara seperti itu.”
Ia melanjutkan bahwa Anthropic hanya akan dapat menyediakan pembaruan dengan persetujuan pemerintah dan penyedia *cloud*-nya, dalam hal ini Amazon Web Services, meski ia tidak menyebut namanya secara spesifik. Ramasamy menambahkan bahwa Anthropic tidak dapat mengakses *prompt* atau data lain yang dimasukkan pengguna militer ke dalam Claude.
Eksekutif Anthropic menegaskan dalam berkas pengadilan bahwa perusahaan tidak menginginkan kekuatan veto atas keputusan taktis militer. Sarah Heck, kepala kebijakan, menulis dalam berkas pengadilan pada Jumat bahwa Anthropic bersedia menjamin hal tersebut dalam kontrak yang diusulkan 4 Maret. “Untuk menghindari keraguan, [Anthropic] memahami bahwa lisensi ini tidak memberikan atau menganugerahkan hak apa pun untuk mengontrol atau memveto pengambilan keputusan operasional Departemen Perang yang sah,” demikian bunyi proposal tersebut menurut berkas, yang merujuk pada nama alternatif untuk Pentagon.
Perusahaan juga siap menerima klausa yang akan menangani kekhawatirannya mengenai Claude yang digunakan untuk membantu melaksanakan serangan mematikan tanpa pengawasan manusia, klaim Heck. Namun, negosiasi pada akhirnya mengalami kebuntuan.
Untuk sementara waktu, Departemen Pertahanan telah menyatakan dalam berkas pengadilan bahwa mereka “mengambil langkah-langkah tambahan untuk memitigasi risiko rantai pasok” yang ditimbulkan oleh perusahaan dengan “bekerja sama dengan penyedia layanan *cloud* pihak ketiga untuk memastikan pimpinan Anthropic tidak dapat melakukan perubahan sepihak” pada sistem Claude yang saat ini diterapkan.