Administrasi Trump sudah berkali-kali menyebut perlindungan AI sebagai “AI yang woke”. Dalam sebuah pidato di SpaceX bulan Januari, Menteri Pertahanan Pete Hegseth marah terhadap sistem AI yang punya batasan ideologi. “AI Departemen Perang tidak akan woke,” katanya. “Ia akan bekerja untuk kita. Kita membuat senjata dan sistem untuk perang, bukan chatbot untuk ruang fakultas di Ivy League.”
Tinggal beberapa hari sebelum batas waktu yang dilaporkan bagi Anthropic untuk menghapus tuntutan mereka tentang keamanan AI dan jaminan penggunaan non-militer, Anthropic memberitahu Fortune bahwa mereka “terus melakukan percakapan dengan itikad baik” dengan Pentagon.
Anthropic menghadapi batas waktu hari Jumat jam 5:01 sore untuk memberi Pentagon akses tak terbatas ke teknologi AI-nya atau akan masuk daftar hitam rantai pasokan militer, menurut laporan Axios, seperti dikonfirmasi Associated Press.
Kebuntuan ini terjadi setelah berbulan-bulan negosiasi antara Departemen Pertahanan dan Anthropic tentang bagaimana militer bisa menggunakan AI perusahaan itu. Seperti dilaporkan Axios, Hegseth memperingatkan Anthropic bahwa Pentagon bisa memberi label perusahaan itu sebagai “risiko rantai pasokan”, sebuah sebutan untuk perusahaan asing musuh seperti Huawei dari Cina, jika perusahaan tidak patuh. Ini akan memaksa kontraktor militer memutus hubungan dengan Anthropic. Dia juga ancam akan gunakan Undang-Undang Produksi Pertahanan, sebuah hukum yang digunakan administrasi Trump saat pandemi COVID untuk dorong perusahaan memperluas produksi alat kesehatan, ancaman yang katanya diulang Hegseth hari Selasa.
Juru bicara Anthropic menambahkan bahwa perusahaan akan dukung fungsi pemerintah sesuai prinsip-prinsip AI bertanggung jawab mereka, dengan mengatakan akan “terus mendukung misi keamanan nasional pemerintah sesuai dengan apa yang model kami bisa lakukan dengan andal dan bertanggung jawab.”
Konflik ini telah jadi perang proksi dalam debat lebih besar tentang siapa yang tentukan syarat penggunaan AI: perusahaan teknologi atau pemerintah AS. Pentagon tahun lalu beri kontrak senilai hingga $200 juta pada Anthropic, bersama Google, OpenAI, dan xAI. Sampai baru-baru ini, Anthropic adalah satu-satunya perusahaan AI yang disetujui Pentagon, tapi startup ini punya pendirian keras menentang aplikasi militer AI-nya, melarang penggunaannya dalam senjata otonom penuh dan pengawasan domestik. Tapi xAI milik Elon Musk minggu ini capai kesepakatan untuk biarkan Pentagon gunakan AI-nya untuk sistem rahasia, menambah persaingan untuk kemitraan eksklusif Anthropic sebelumnya.
Pentagon katanya menggunakan model AI Claude milik Anthropic lewat kemitraan Anthropic dengan Palantir selama serbuan AS di Venezuela, yang berujung pada penangkapan mantan Presiden Venezuela Nicolás Maduro. Anthropic kemudian hubungi Palantir untuk tanya bagaimana AI perusahaan itu digunakan selama operasi, yang kemudian Palantir laporkan ke Pentagon, menurut The Hill.
Melonggarkan Komitmen Keamanan
Tapi Anthropic pelan-pelan mengendurkan komitmen ketatnya pada keamanan. Perusahaan AI itu hari Selasa rilis versi terbaru dari Responsible Scaling Policy (RSP) mereka, yang awalnya terbit September 2023, untuk tetap kompetitif, menyatakan kebijakan baru ini adalah reaksi terhadap perubahan lingkungan pasar. “Lingkungan kebijakan telah bergeser ke arah memprioritaskan daya saing AI dan pertumbuhan ekonomi, sementara diskusi berorientasi keselamatan belum dapat daya tarik yang berarti di tingkat federal,” bunyi pengumuman Anthropic.
CEO Dario Amodei telah menyarankan kemungkinan pelonggaran komitmen keamanan, berkata dalam sebuah wawancara dengan pembawa acara podcast Dwarkesh Patel bahwa perusahaan menghadapi “tekanan komersial” dan bahwa langkah-langkah keamanan ketat mereka sudah membatasi kemampuan mereka untuk bersaing dengan pesaing yang beroperasi di bawah aturan kurang ketat.
Dalam wawancara eksklusif dengan Time, Jared Kaplan, kepala ilmuwan Anthropic, mengatakan perubahan pada RSP dibuat karena kepedulian pada keselamatan, bukan karena takut persaingan. “Kami merasa itu tidak akan benar-benar membantu siapa pun kalau kami berhenti melatih model AI,” kata Kaplan. “Kami tidak terlalu merasa, dengan kemajuan pesat AI, bahwa masuk akal bagi kami untuk membuat komitmen sepihak … jika pesaing terus melaju kencang.”