Peringatan Purnawirawan Jenderal: Amerika Tak Bisa Bertarung dalam Perlombaan Senjata AI dengan Teknologi yang Tak Mereka Kuasai

Amerika Serikat sedang memasuki fase baru persaingan strategis—di mana kecerdasan buatan bukan lagi kemampuan baru, tapi elemen penting untuk kekuatan militer. Dalam perlombaan senjata AI ini, kecepatan sangat penting. Kemampuan juga penting. Tapi yang paling utama adalah kendali. Itulah kenapa pertikaian terakhir antara Anthropic dan Pentagon harus menjadi perhatian untuk mereka yang fokus pada keamanan nasional Amerika.

Inti dari perselisihan ini adalah perbedaan pendapat yang sederhana tapi mendalam: siapa yang berhak memutuskan bagaimana sistem AI canggih digunakan dalam konteks militer. Anthropic, pengembang Claude dan model supernya Mythos, ingin memberi batasan pada penggunaan teknologinya dengan membuat garis merah untuk aplikasi tertentu. Pentagon, di sisi lain, bersikeras bahwa mereka harus bisa menggunakan alat AI untuk semua tujuan yang sah dalam membela negara. Karena posisi mereka tidak bisa disatukan, hubungan mereka pun rusak.

Anthropic akhirnya ditandai sebagai risiko rantai pasokan, dan Departemen Perang terpaksa mencari kemampuan AI dari tempat lain. Sejak itu, detail tentang model mereka Mythos—yang disebut “terlalu berbahaya” untuk dirilis ke publik—terungkap dan menambah kekhawatiran baru yang mengkhawatirkan. Mythos dilaporkan bisa mengidentifikasi dan memanfaatkan kerentanan keamanan siber yang belum ditemukan secara otonom, dan bisa berarti musim terbuka bagi penjahat siber tanpa pagar pengaman yang tepat. Alat baru ini begitu kuat sampai Anthropic membatasi akses ke sana.

Kejadian ini harus menjadi peringatan karena menunjukkan bagaimana struktur ekosistem AI Amerika saat ini—seperti kotak hitam, didorong oleh sistem tertutup yang kurang transparan—tidak sejalan dengan kebutuhan pertahanan nasional.

Saat ini, Pentagon membeli akses ke kemampuan AI, tapi mereka tidak mengendalikannya. Pelatihan, pengujian, dan pengembangan model-model ini masih tetap di tangan perusahaan swasta yang memiliki kerangka tata kelola, toleransi risiko, dan insentif komersial mereka sendiri. Realita ini menciptakan dinamika yang berbahaya: itu memberi sejumlah kecil perusahaan swasta yang tidak bisa dimintai tanggung jawab hak veto atas bagaimana Amerika Serikat bisa menggunakan salah satu teknologi paling penting di zaman kita. Itu bukan model yang berkelanjutan untuk sebuah republik konstitusional. Itu juga bukan fondasi yang bisa diandalkan untuk dominasi militer.

MEMBACA  Di dalam pabrik-pabrik Cina yang memacu kesuksesan perusahaan

Sistem yang dibatasi oleh proses persetujuan eksternal, kebijakan perusahaan yang berubah-ubah, atau risiko gangguan mendadak adalah sistem yang tidak bisa bergerak dengan kecepatan yang dibutuhkan perang modern. Dan dalam persaingan strategis yang ditentukan oleh siklus iterasi dalam hitungan minggu—bukan tahun—batasan-batasan itu tidak hanya memperlambat Amerika Serikat. Itu membuka celah.

Tiongkok dan mitra-mitranya, contohnya, sedang bergerak agresif untuk menggunakan kemampuan AI dalam skala besar, memanfaatkan model sumber terbuka yang bisa disesuaikan untuk berbagai aplikasi militer dan intelijen. Sistem seperti DeepSeek tidak dibatasi oleh struktur tata kelola perusahaan yang sama seperti perusahaan Amerika.

Mereka dirancang untuk dimodifikasi, diperluas, dan diintegrasikan ke dalam ekosistem luas yang tidak hanya mencakup militer Tiongkok, tapi juga jaringan negara mitra yang bertentangan dengan Amerika.

Itu menciptakan ancaman asimetris. Sementara Amerika Serikat memperdebatkan penggunaan AI yang diizinkan melalui kontrak dengan vendor swasta, pesaingnya sedang membangun sistem yang fleksibel dan selaras dengan negara yang bisa dengan cepat disesuaikan untuk kebutuhan operasional. Jika kesenjangan itu tetap ada, Amerika berisiko berada pada posisi yang kurang menguntungkan secara militer.

Solusinya bukan meninggalkan sektor swasta, yang tetap menjadi sumber inovasi luar biasa dan kepemimpinan teknis. Bukan juga membuang pertimbangan etika, yang harus tetap menjadi pusat dari bagaimana Amerika Serikat menggunakan kekuatan. Tapi itu berarti mengakui bahwa model saat ini—di mana pemerintah menyewa akses ke sistem tertutup dan berpemilik yang tidak bisa mereka kendalikan sepenuhnya—tidak memadai untuk tuntutan persaingan strategis.

Washington harus mulai berinvestasi pada pendekatan yang berbeda: pengembangan model AI sumber terbuka yang berkinerja tinggi, aman, dan mudah beradaptasi yang bisa dikendalikan, diaudit, dan digunakan oleh pemerintah AS dan sekutu terdekatnya tanpa kendala eksternal. Ini semua tidak menghilangkan kebutuhan akan pagar pengaman yang hati-hati. Ada debat penting dan sah tentang peran AI dalam peperangan; dari otonomi dan penargetan hingga pengawasan dan eskalasi. Tapi debat itu harus dipimpin oleh pejabat terpilih dan pemimpin militer yang bertanggung jawab kepada rakyat Amerika, bukan didikte oleh kebijakan penggunaan yang dapat diterima dari perusahaan swasta.

MEMBACA  Harga Saham Pony AI (PONY) Turun Saat Investor Menunggu Kepastian Akuisisi Uber

Penyesuaian strategis ini bisa mengambil beberapa bentuk. Mungkin melibatkan pengembangan model yang dipimpin pemerintah, kemitraan dengan lembaga penelitian terpercaya, atau pembuatan model terbuka yang dirancang khusus untuk aplikasi pertahanan. Itu bisa mencakup kerangka kerja sekutu yang memastikan interoperabilitas sambil menjaga kendali nasional, serta strategi pengadaan baru yang mengutamakan transparansi dan kemampuan modifikasi daripada kenyamanan.

Tapi, terlepas dari jalan yang dipilih, keberhasilan akan tergantung pada mendapatkan mekanisme yang benar.

Amerika Serikat sudah lama paham bahwa mereka tidak bisa mengalihdayakan fondasi keamanannya. Mereka membangun kapal mereka sendiri. Mereka merancang senjata mereka sendiri. Mereka mempertahankan komando atas sistem yang mendasari keunggulan militer mereka. Kecerdasan buatan seharusnya tidak berbeda.

Membangun kemitraan publik-swasta yang efektif untuk melayani pertahanan nasional akan membutuhkan lebih dari sekadar kemampuan teknis—itu akan membutuhkan kepercayaan, integritas, dan proses yang baik. Itu berarti membangun pagar pengaman yang jelas, menyelaraskan insentif, dan memastikan bahwa pemerintah dan industri sama-sama bertanggung jawab atas risiko dan hasil dari penggunaan sistem ini. Jika dilakukan dengan benar, kerangka seperti itu dapat memanfaatkan inovasi sektor swasta sambil menjaga otoritas pemerintah atas bagaimana kemampuan ini akhirnya digunakan.

Kejadian dengan Anthropic berisiko bukan sebagai suatu keanehan, tapi sebagai gambaran masa depan. Kecuali kita bertindak sekarang untuk memastikan bahwa Amerika—dan sekutunya—memiliki akses ke sistem AI yang benar-benar bisa mereka kendalikan, itu mungkin juga menjadi peringatan yang gagal kita perhatikan.

Pendapat yang diungkapkan dalam tulisan komentar Fortune.com adalah pandangan penulisnya saja dan tidak selalu mencerminkan pendapat dan keyakinan Fortune.

Tinggalkan komentar