Perseteruan Pentagon Terkait Anthropic ‘Harus Menjadi Peringatan bagi Kongres’

Sengketa kontrak antara Departemen Pertahanan AS dan pengembang AI Anthropic yang memuncak akhir Februari lalu menyingkap dengan gamblang betapa undang-undang dan regulasi telah tertinggal dalam mengimbangi kemampuan kecerdasan buatan.

Pentagon ingin dapat menggunakan AI Claude milik Anthropic untuk “segala tujuan yang sah,” sementara Anthropic ingin melarang militer menggunakannya untuk pengawasan massal dalam negeri atau sistem senjata otonom penuh. Setelah Anthropic menolak memenuhi tuntutan pemerintah, Presiden Donald Trump dan Menteri Pertahanan Pete Hegseth menyatakan akan menetapkan perusahaan sebagai “risiko rantai pasok,” yang melarang penggunaan produknya dalam pekerjaan kontrak pertahanan. Pentagon melakukannya, dan Anthropic mengajukan gugatan di pengadilan federal yang menentang penetapan tersebut, menyebutnya sebagai serangan “tanpa preseden dan melawan hukum” terhadap hak kebebasan berbicara perusahaan.

Pejabat Pentagon berpendapat masalah ini tidak relevan karena hukum saat ini tidak mengizinkan pengawasan semacam itu, dan mereka tidak berencana menggunakan alat tersebut untuk sistem senjata otonom. Namun, menurut para ahli privasi dan teknologi, undang-undang dan regulasi tersebut sebenarnya tidak begitu jelas. Dan sengketa kontrak antara perusahaan swasta dan lembaga federal bukanlah tempat untuk menyelesaikannya.

“Minggu ini memperlihatkan vakum tata kelola yang nyata, dan ini seharusnya menjadi peringatan bagi Kongres,” kata Hamza Chaudhry, pemimpin AI dan keamanan nasional di Future of Life Institute.

Baca selengkapnya: Kongres Tidak Bergerak Mengatur AI. Ke Mana Arah Kita Sekarang?

Hasil langsung dari sengketa kontrak ini adalah Pentagon membuat kesepakatan dengan OpenAI. Kesepakatan dengan OpenAI kurang jelas mengenai batasan penggunaan produknya untuk pengawasan massal atau senjata otonom, namun para pimpinan OpenAI mengatakan minggu ini bahwa mereka telah mengambil langkah untuk memperkuat pagar pembatas tersebut. CEO Sam Altman dalam postingan di X menyatakan Pentagon menegaskan bahwa alat tersebut tidak akan digunakan oleh badan intelijen departemen.

(Keterangan: Ziff Davis, perusahaan induk CNET, pada 2025 mengajukan gugatan terhadap OpenAI, menuduhnya melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)

Peneliti ilmuwan OpenAI, Noam Brown, memposting di X bahwa ia percaya dunia “seharusnya tidak bergantung pada kepercayaan kepada laboratorium AI atau badan intelijen” untuk memastikan hal-hal seperti keselamatan. “Saya tahu legislasi terkadang lambat, tetapi saya khawatir dengan lereng licin di mana kita menjadi terbiasa mengindari proses demokrasi untuk keputusan kebijakan penting,” tulisnya.

MEMBACA  David Gordon Green Mengisyaratkan Apa yang Film Eksorsis Keduanya Akan Menjadi

Pertanyaannya adalah apakah, dan bagaimana, Kongres akan menangani masalah-masalah ini.

AI Memainkan Peran yang Semakin Besar dalam Pengawasan

Risiko besar penggunaan AI untuk pengawasan dalam negeri bukanlah bahwa Claude atau ChatGPT akan memata-matai warga Amerika. Melainkan bahwa alat-alat ini akan digunakan untuk mengubah data yang sudah dimiliki pemerintah, atau yang dapat dibeli dari broker data swasta tanpa perlu surat perintah, menjadi informasi yang seharusnya memerlukan surat perintah.

Data pribadi Anda sudah dikumpulkan, mungkin dari perangkat yang Anda gunakan untuk membaca ini. Ini mencakup informasi tentang riwayat penjelajahan Anda, data lokasi Anda, dan dengan siapa Anda berbicara atau berhubungan. Perusahaan swasta, seperti pengembang aplikasi, dapat mengumpulkan data itu bahkan jika Anda tidak menyadarinya dan menjualnya ke perusahaan lain atau ke badan intelijen. Tetapi hingga baru-baru ini, sulit bagi pemerintah untuk mengolah semua data itu dengan cara yang memudahkan pengawasan. AI telah mengubah hal itu.

CEO Anthropic Dario Amodei secara khusus menyebut situasi ini dalam pernyataan tanggal 26 Februari yang merinci alasan perusahaan bertahan pada batasan-batasannya. “AI yang kuat memungkinkan untuk merakit data yang tersebar dan secara individual tidak berbahaya ini menjadi gambaran komprehensif tentang kehidupan seseorang — secara otomatis dan dalam skala besar.”

AI Saat Ini Belum Siap untuk Sistem Senjata

Sengketa inti lainnya adalah Anthropic ingin mencegah Pentagon memberikan kendali penuh suatu sistem senjata kepada Claude tanpa adanya “manusia dalam putaran.” Penggunaan alat AI untuk membantu memilih target — seperti yang dilaporkan terjadi dengan Claude selama perang AS di Iran — bukanlah hal yang tabu bagi Anthropic atau perusahaan AI besar mana pun, karena ada manusia yang terlibat dalam verifikasi dan pengambilan keputusan. Yang ditolak perusahaan adalah penggunaan model AI dalam mengambil keputusan tersebut tanpa pengawasan manusia. Amodei menulis bahwa model terdepan saat ini “sederhananya tidak cukup andal untuk menggerakkan senjata otonom penuh.”

Greg Nojeim, penasihat senior dan direktur proyek keamanan dan pengawasan di Center for Democracy and Technology, mengatakan jelas bahwa para ahli AI tidak percaya model-model itu siap untuk penggunaan semacam itu, jika pun mereka akan pernah siap.

MEMBACA  Petunjuk dan jawaban NYT untuk 8 April

“Mencengangkan bahwa Pentagon menolak nasihat itu dan bersikeras untuk dapat menggunakan alat AI ini untuk membunuh orang tanpa campur tangan manusia,” katanya.

Departemen Pertahanan berargumen bahwa mereka sebenarnya tidak dapat menggunakan senjata otonom penuh, tetapi Chaudhry mengatakan kepada saya direktif yang paling sering dikutip (PDF) mengenai masalah itu tidak melarangnya secara tegas. Departemen Pertahanan dan Anthropic tidak menanggapi permintaan CNET untuk berkomentar untuk artikel ini.

Terlepas dari itu, kata para ahli, pertanyaan tentang penggunaan senjata semacam itu bukanlah hal yang harus diselesaikan oleh birokrat federal yang tidak terpilih, komandan militer, atau perusahaan swasta. Pejabat terpilih perlu mempertimbangkan hal ini.

Titik Balik untuk Regulasi AI?

Pertanyaan tentang bagaimana mengatur AI, dan siapa yang harus melakukannya, bukanlah hal baru. Pemerintahan Trump menyerukan pendekatan ringan dalam memberi tahu perusahaan AI apa yang harus dilakukan, meskipun ada bukti bahaya mulai dari chatbot yang mendorong bunuh diri hingga erosi privasi pribadi yang dimungkinkan oleh AI. Negara-negara bagian telah mencoba membatasi pengembang AI untuk menangani masalah ini, tetapi menghadapi penentangan dari pemerintah federal yang bertekad memutuskan bagaimana teknologi ini ditangani.

Dalam hal penggunaan AI oleh militer dan dinas mata-mata federal, pertanyaan tentang siapa yang harus mengatur adalah jelas: Kongres.

“Para pemimpin perusahaan sektor swasta yang tidak terpilih tidak dapat diandalkan untuk menggunakan kontrak swasta guna mengisi celah yang belum diisi oleh pembuat undang-undang yang terpilih secara demokratis,” kata Chaudhry. “Yang kita butuhkan adalah batasan statutori — aturan yang jelas, tahan lama, dan diberlakukan secara demokratis tentang apa yang dapat dan tidak dapat digunakan AI untuknya dalam konteks keamanan nasional, seiring AI mengubah keamanan nasional.”

Nojeim mengatakan pengawasan AI “bukanlah jenis tindakan yang seharusnya dapat diizinkan sendiri oleh militer.” Kongres akan mempertimbangkan reotorisasi bagian dari Undang-Undang Pengawasan Intelijen Asing bulan depan dan dapat menggunakan kesempatan itu untuk memutuskan apakah badan intelijen memerlukan surat perintah saat menggunakan data yang dibeli.

MEMBACA  Pembalap Formula 1 Baru Saja Melaju di Sirkuit dengan Mobil Lego Berukuran Penuh

“Idealnya, Kongres akan turun tangan dan membatasi kemampuan pemerintah untuk membeli data tentang warga Amerika dan melewati persyaratan otorisasi pengadilan, dan idealnya Kongres akan menetapkan aturan tentang bagaimana Departemen Pertahanan harus melindungi warga Amerika dari pengawasan bertenaga AI dan menetapkan aturan tentang penggunaan senjata otonom yang dapat membunuh tanpa manusia dalam putaran,” ujarnya.

Kongres memiliki banyak masalah regulasi terkait AI lainnya untuk dipertimbangkan, tetapi debat tentang penggunaan AI untuk pengawasan dan senjata otonom membuka mata dan dapat mendorong tindakan yang lebih cepat.

Bagaimana dengan Efek Jangka Panjang dari Sengketa Ini?

Pembalasan Pentagon terhadap Anthropic — penetapan resmi perusahaan sebagai risiko rantai pasok minggu ini — dapat memiliki efek menggugurkan bagi perusahaan lain yang khawatir tentang bagaimana pemerintah akan menggunakan teknologi mereka.

“Ini menetapkan preseden bahwa pemerintah dapat membalas dendam terhadap perusahaan yang telah menerapkan batasan keselamatan pada penggunaan teknologinya karena perusahaan tersebut tahu lebih banyak tentang risiko dan keandalan teknologinya daripada yang diketahui pemerintah,” kata Nojeim. “Preseden itu akan membuat kita semua kurang aman.”

Anthropic mengatakan pada Kamis bahwa mereka telah menerima surat dari Departemen Pertahanan yang menetapkannya sebagai risiko rantai pasok dan bahwa bahasa surat itu lebih sempit daripada ancaman luas yang dibuat oleh pejabat administrasi minggu sebelumnya. “Terhadap pelanggan kami, surat itu jelas hanya berlaku untuk penggunaan Claude oleh pelanggan sebagai bagian langsung dari kontrak dengan Departemen Perang, bukan semua penggunaan Claude oleh pelanggan yang memiliki kontrak semacam itu,” kata Amodei dalam sebuah pernyataan, menggunakan nama yang disukai Hegseth untuk departemen tersebut.

Terlepas dari sengketa dan penetapan sebagai risiko rantai pasok, militer AS terus menggunakan alat-alat Anthropic, termasuk secara ekstensif selama perang saat ini di Iran. Amodei mengatakan Anthropic akan terus memasok model AI-nya kepada kelompok militer dan keamanan nasional “dengan biaya nominal dan dengan dukungan berkelanjutan dari insinyur kami” selama diizinkan.

“Anthropic memiliki lebih banyak kesamaan dengan Departemen Perang daripada perbedaan yang kita miliki,” kata Amodei.

Tinggalkan komentar