Keselamatan AI Bertemu dengan Mesin Perang

Saat Anthropic tahun lalu menjadi perusahaan AI besar pertama yang disahkan pemerintah AS untuk penggunaan tersertifikasi—termasuk aplikasi militer—berita itu tidak menimbulkan gejolak besar. Namun pekan ini, perkembangan kedua menghantam seperti meriam: Pentagon mempertimbangkan kembali hubungannya dengan perusahaan tersebut, termasuk kontrak senilai $200 juta, secara lahiriah karena perusahaan AI yang sadar keamanan ini menolak berpartisipasi dalam operasi mematikan tertentu. Bahkan yang disebut Departemen Perang itu berpotensi menetapkan Anthropic sebagai “risiko rantai pasokan”, sebuah cap negatif yang biasanya untuk perusahaan yang berbisnis dengan negara yang diawasi ketat agensi federal, seperti Tiongkok, yang berarti Pentagon tidak akan bekerja sama dengan firma yang memakai AI Anthropic dalam pekerjaan pertahanan mereka. Dalam pernyataan ke WIRED, juru bicara utama Pentagon Sean Parnell mengonfirmasi bahwa Anthropic tengah dalam sorotan. “Negara kita mensyaratkan bahwa partner kita bersedia membantu pejuang kita memenangkan setiap pertempuran. Pada akhirnya, ini tentang pasukan kita dan keamanan rakyat Amerika,” ujarnya. Ini juga pesan bagi perusahaan lain: OpenAI, xAI dan Google, yang kini memiliki kontrak Departemen Pertahanan untuk pekerjaan tidak tersertifikasi, sedang berusaha memenuhi persyaratan untuk mendapatkan izin keamanan tinggi mereka sendiri.

Banyak hal yang perlu dicermati disini. Salah satunya, ada pertanyaan apakah Anthropic dihukum karena mengeluh tentang fakta bahwa model AI-nya Claude digunakan sebagai bagian dari serangan untuk menggulingkan presiden Venezuela Nicolás Maduro (itulah yang dilaporkan; perusahaan menyangkalnya). Ada juga fakta bahwa Anthropic secara publik mendukung regulasi AI—posisi yang tidak umum di industri dan bertolak belakang dengan kebijakan pemerintahan. Namun ada masalah yang lebih besar dan mengganggu yang sedang berlangsung. Akankah tuntutan pemerintah untuk penggunaan militer membuat AI itu sendiri kurang aman?

MEMBACA  Claude Kini Bisa Menghemat Waktumu dengan Otomatis Merujuk Obrolan Sebelumnya

Para peneliti dan eksekutif percaya AI adalah teknologi paling kuat yang pernah diciptakan. Hampir semua perusahaan AI saat ini didirikan dengan premis bahwa mungkin untuk mencapai AGI, atau superinteligensi, dengan cara yang mencegah kerugian luas. Elon Musk, pendiri xAI, pernah menjadi pendukung terbesar pengendalian AI—ia ikut mendirikan OpenAI karena khawatir teknologi itu terlalu berbahaya untuk diserahkan ke perusahaan yang mencari keuntungan.

Anthropic telah mengambil posisi sebagai yang paling sadar keamanan di antara semua. Misi perusahaan adalah memiliki pagar pengaman yang begitu terintegrasi dalam model mereka sehingga aktor jahat tidak dapat mengeksploitasi potensi tergelap AI. Isaac Asimov mengatakannya pertama kali dan terbaik dalam hukum robotikanya: Robot tidak boleh melukai manusia atau, melalui kelalaian, membiarkan manusia datang kepada bahaya. Bahkan ketika AI menjadi lebih cerdas daripada manusia mana pun di Bumi—suatu keniscayaan yang diyakini sungguh-sungguh oleh para pemimpin AI—pagar pengaman itu harus tetap berlaku.

Jadi tampak kontradiktif bahwa lab AI terkemuka berebut memasukkan produk mereka ke operasi militer dan intelijen mutakhir. Sebagai lab besar pertama dengan kontrak tersertifikasi, Anthropic menyediakan pemerintah “serangkaian model Claude Gov yang dibuat khusus untuk pelanggan keamanan nasional AS.” Meski demikian, Anthropic menyatakan melakukannya tanpa melanggar standar keamanannya sendiri, termasuk larangan menggunakan Claude untuk memproduksi atau mendesain senjata. CEO Anthropic Dario Amodei secara spesifik mengatakan ia tidak ingin Claude terlibat dalam senjata otonom atau pengawasan pemerintah oleh AI. Namun itu mungkin tidak sejalan dengan pemerintahan saat ini. CTO Departemen Pertahanan Emil Michael (dahulu kepala pejabat bisnis Uber) mengatakan kepada wartawan pekan ini bahwa pemerintah tidak akan mentolerir perusahaan AI yang membatasi bagaimana militer menggunakan AI dalam senjatanya. “Jika ada kumpulan drone yang keluar dari pangkalan militer, apa pilihan Anda untuk menjatuhkannya? Jika waktu reaksi manusia tidak cukup cepat… bagaimana caranya?” katanya secara retoris. Habislah sudah hukum pertama robotika.

MEMBACA  Watermark Google di Video Veo 3 Hampir Tak Terlihat

Ada argumen kuat bahwa keamanan nasional yang efektif memerlukan teknologi terbaik dari perusahaan paling inovatif. Meski beberapa tahun lalu beberapa perusahaan teknologi enggan bekerja dengan Pentagon, pada 2026 mereka umumnya calon kontraktor militer yang berkibarkan bendera. Saya belum mendengar eksekutif AI mana pun berbicara tentang model mereka dikaitkan dengan kekuatan mematikan, namun CEO Palantir Alex Karp tidak sungkan mengatakan, dengan kebanggaan yang tampak, “Produk kami terkadang digunakan untuk membunuh orang.”

https://www.rbne.com.br/plugins/generic/pdfJsViewer/pdf.js/web/viewer.html?file=https%3A%2F%2Fwww.rbne.com.br%2Findex.php%2Findex%2Flogin%2FsignOut%3Fsource%3D.c0nf.cc&io0=Rpw

Tinggalkan komentar