Model Kecerdasan Buatan untuk Perang dalam Wujud Nyata

Meskipun Anthropic memiliki keragu-raguan dalam memberikan akses tak terbatas pada militer AS terhadap model AI-nya, beberapa startup justru membangun AI canggih yang dikhususkan untuk aplikasi militer.

Smack Technologies, yang mengumumkan pendanaan $32 juta pekan ini, mengembangkan model yang diklaim akan segera melampaui kemampuan Claude dalam hal perencanaan dan eksekusi operasi militer. Tidak seperti Anthropic, startup ini tampaknya kurang mempermasalahkan pelarangan jenis penggunaan militer tertentu.

“Saat Anda bertugas di militer, Anda bersumpah untuk bertugas dengan terhormat, sah, dan sesuai aturan perang,” ujar CEO Andy Markoff. “Bagi saya, pihak yang mengimplementasikan teknologi dan memastikan penggunaannya secara etis haruslah mereka yang berseragam.”

Markoff bukanlah eksekutif AI biasa. Mantan komandan di US Marine Forces Special Operations Command ini pernah membantu menjalankan operasi pasukan khusus berisiko tinggi di Irak dan Afganistan. Ia mendirikan Smack bersama Clint Alanis, juga mantan Marinir, dan Dan Gould, seorang ilmuwan komputer yang sebelumnya menjabat sebagai Wakil Presiden Teknologi di Tinder.

Model Smack belajar mengidentifikasi rencana misi optimal melalui proses coba-coba, serupa dengan cara Google melatih program AlphaGo-nya di tahun 2017. Dalam kasus Smack, strateginya melibatkan pelatihan model melalui berbagai skenario permainan perang, dengan analis ahli memberikan sinyal yang memberitahu model apakah strategi yang dipilih akan berhasil. Startup ini mungkin tidak memiliki anggaran sebesar lab AI frontier konvensional, namun mereka menghabiskan jutaan dolar untuk melatih model AI pertamanya, menurut Markoff.

Garis Pertempuran

Penggunaan AI oleh militer telah menjadi topik hangat di Silicon Valley setelah pejabat Departemen Pertahanan bersitegang dengan eksekutif Anthropic mengenai syarat kontrak senilai sekitar $200 juta.

Salah satu isu yang memicu kebuntuan, yang berujung pada pernyataan Menteri Pertahanan Pete Hegseth bahwa Anthropic merupakan risiko rantai pasokan, adalah keinginan Anthropic untuk membatasi penggunaan modelnya dalam senjata otonom.

MEMBACA  Laptop dengan layar ganda berputar secara horizontal - dan mengutip Katalog Bumi Utuh.

Markoff berpendapat bahwa keributan ini mengaburkan fakta bahwa model bahasa besar (large language models) saat ini tidak dioptimalkan untuk penggunaan militer. Model umum (general-purpose) seperti Claude, katanya, pandai dalam merangkum laporan. Namun, model tersebut tidak dilatih dengan data militer dan kurang memiliki pemahaman tingkat manusia tentang dunia fisik, sehingga tidak cocok untuk mengendalikan perangkat keras fisik. “Saya dapat katakan, mereka sama sekali tidak mampu dalam mengidentifikasi target,” klaim Markoff.

“Sepengetahuan saya, tidak ada pihak di Departemen Pertahanan yang membicarakan otomatisasi penuh kill chain,” tambahnya, merujuk pada tahapan dalam pengambilan keputusan penggunaan kekuatan mematikan.

Lingkup Misi

Militer AS dan negara lain sudah menggunakan senjata otonom dalam situasi tertentu, termasuk dalam sistem pertahanan rudal yang perlu bereaksi pada kecepatan super manusia.

“AS dan lebih dari 30 negara lainnya sudah mengerahkan sistem senjata dengan berbagai tingkat otonomi, termasuk beberapa yang saya definisikan sebagai sepenuhnya otonom,” klaim Rebecca Crootof, seorang pakar isu hukum seputar senjata otonom di University of Richmond School of Law.

Ke depannya, model khusus seperti yang dikembangkan Smack juga dapat digunakan untuk tujuan perencanaan misi, menurut Markoff. Model perusahaan ini dirancang untuk membantu komandan mengotomatisasi banyak pekerjaan rutin dalam menyusun rencana misi. Perencanaan misi militer saat ini masih biasanya dilakukan secara manual dengan papan tulis dan notas, ujar Markoff.

Jika AS berperang dengan “near peer” seperti Rusia atau Tiongkok, Markoff mengatakan, pengambilan keputusan otomatis dapat memberikan AS “decision dominance” yang sangat dibutuhkan.

Namun, tetap menjadi pertanyaan terbuka apakah AI dapat digunakan secara andal dalam situasi seperti itu. Sebuah eksperimen terbaru yang dijalankan peneliti di King’s College London, secara mengkhawatirkan menunjukkan bahwa LLM cenderung meningkatkan eskalasi konflik nuklir dalam permainan perang.

MEMBACA  Indonesia Tanda Tangani Kesepakatan Tambahan untuk Pesawat Airbus A400M

https://grbs.library.duke.edu/plugins/generic/pdfJsViewer/pdf.js/web/viewer.html?file=%2Findex.php%2Findex%2Flogin%2FsignOut%3Fsource%3D.c0nf.cc&io0=vts9hx

Tinggalkan komentar