Pejabat Pentagon Mengenang Saat ‘Terkesima’ saat Pimpinan Pertahanan Menyadari Besarnya Ketergantungan pada Anthropic

Ketergantungan Departemen Pertahanan pada AI Anthropic adalah sebuah kesadaran yang mengejutkan yang akhirnya menyebabkan perpecahan dramatis mereka, menurut seorang pejabat tinggi Pentagon.

Emil Michael, wakil menteri departemen untuk riset dan teknik serta kepala petugas teknologi, menjelaskan kejadian yang menyebabkan perselisihan publik itu dalam episode podcast All-In hari Jumat.

Setelah serangan militer AS ke Venezuela awal Januari yang menangkap diktator Nicolas Maduro, Anthropic bertanya ke Palantir apakah AI mereka dipakai dalam operasi itu. Meski Anthropic menyebut pertanyaan itu biasa, Pentagon dan Palantir mengartikannya sebagai ancaman potensial terhadap akses mereka.

“Saya berpikir, astaga, bagaimana kalau software ini mati, atau beberapa pengaman aktif, beberapa penolakan terjadi untuk pertempuran berikutnya dan kita meninggalkan pasukan kita dalam risiko?” kenang Michael. “Jadi saya menemui Sekretaris Hegseth, saya bilang ini bisa terjadi dan itu seperti momen ‘wah’ untuk seluruh pimpinan di Pentagon bahwa kita mungkin sangat bergantung pada penyedia software tanpa alternatif lain.”

Sampai baru-baru ini, Claude dari Anthropic adalah satu-satunya model AI yang diizinkan dalam pengaturan terklasifikasi. Startup dari San Francisco itu bilang mereka patriotik dan ingin membela AS, tapi tidak akan mengizinkan AI-nya dipakai untuk pengawasan massal dalam negeri atau senjata otonom.

Pentagon bersikeras akan memakai AI itu dalam skenario yang sah dan menolak mematuhi batasan apa pun dari perusahaan yang melampaui kendala itu.

Setelah gagal mencapai kompromi minggu lalu, Presiden Donald Trump memerintahkan pemerintah federal untuk berhenti menggunakan Anthropic sambil memberi Pentagon waktu enam bulan untuk menghentikannya secara bertahap. Menteri Pertahanan Pete Hegseth juga menetapkan perusahaan itu sebagai risiko rantai pasok, artinya kontraktor tidak bisa menggunakannya untuk pekerjaan militer.

MEMBACA  Nvidia Siap Membukukan Untung dari Booming Pusat Data, Meski Kampus Kecerdasan Artifisial Raksasa Tak Terwujud

Untuk sementara, militer terus menggunakan Anthropic selama perang AS melawan Iran, karena AI membantu prajurit mengidentifikasi target potensial dengan cepat.

Selama tampil di podcast, Michael menyuarakan kekhawatiran bahwa seorang pengembang nakal bisa “meracuni model” untuk membuatnya tidak efektif bagi militer, melatihnya untuk berhalusinasi dengan sengaja, atau menyuruhnya untuk tidak mengikuti instruksi.

Dia lalu menghubungi OpenAI, yang akhirnya mencapai kesepakatan serupa dengan yang dimiliki Anthropic. xAI-nya Elon Musk juga dimasukkan ke dalam lingkaran terklasifikasi, sementara Pentagon berusaha agar AI Google juga diizinkan masuk ke pengaturan terklasifikasi.

“Saya tidak berpihak,” kata Michael. “Saya hanya ingin semuanya. Saya ingin memberi mereka persyaratan yang sama persis karena saya butuh cadangan.”

Dia mengakui bahwa Anthropic telah “tertanam sangat dalam” di departemen itu sementara perusahaan AI lain tidak begitu agresif mengejar pelanggan enterprise dengan menyediakan insinyur yang ditempatkan di depan.

Perselisihan antara Pentagon dan Anthropic menyoroti benturan budaya antara lembaga pertahanan dan Silicon Valley, yang akarnya ada dalam inovasi militer tetapi sekarang menjadi enggan melihat teknologinya dipakai untuk perang.

Bahkan, seorang insinyur robotika top di OpenAI mengumumkan pengunduran dirinya dari perusahaan pada hari Sabtu, menyebutkan kekhawatiran yang sama yang diangkat Anthropic.

“Ini bukan keputusan mudah. AI punya peran penting dalam keamanan nasional. Tapi pengawasan terhadap orang Amerika tanpa pengawasan pengadilan dan otonomi mematikan tanpa otorisasi manusia adalah garis batas yang pantas dapat pertimbangan lebih,” tulis Caitlin Kalinowski di X dan LinkedIn.

Tinggalkan komentar