Pertikaian Anthropic dengan Menteri Perang Hegseth Ancam Masa Depan Perusahaan

Perusahaan AI Anthropic mungkin sedang menghadapi krisis terbesar dalam sejarahnya yang berusia lima tahun. Mereka punya batas waktu sampai Jumat ini untuk menghapus batasan-batasan tentang cara Departemen Perang AS menggunakan teknologinya. Kalau tidak, Pentagon bisa mengambil tindakan yang bisa merusak bisnis mereka.

Pete Hegseth, Menteri Perang AS, meminta Anthropic menghapus batasan dalam kontraknya yang melarang model AI-nya dipakai untuk pengawasan massal atau dimasukkan ke senjata otonom mematikan. Senjata itu bisa mengambil keputusan menyerang tanpa campur tangan manusia. Hegseth ingin Anthropic menyatakan bahwa teknologinya bisa dipakai untuk “tujuan sah apa saja” yang diinginkan Departemen Perang.

Kalau perusahaan tidak menuruti sampai Jumat, Hegseth mengancam akan membatalkan kontrak Anthropic senilai $200 juta dengan departemennya. Dia juga akan memberi label Anthropic sebagai “risiko rantai pasok”. Artinya, perusahaan mana pun yang bekerja dengan Departemen Perang tidak boleh menggunakan model AI Anthropic. Ini bisa menghancurkan pertumbuhan Anthropic. Padahal, perusahaan yang sekarang bernilai $380 miliar ini sedang dapat traction komersial yang signifikan dan merencanakan penawaran saham perdana (IPO) tahun depan.

Pertemuan hari Selasa antara Hegseth dan CEO Anthropic Dario Amodei di Washington, D.C., tidak berhasil menyelesaikan konflik ini. Hegseth mengulangi ultimatnya.

Sementara itu, pejabat lain di pemerintahan Trump juga menunjukkan sikap tidak suka pada Anthropic. Misalnya, David Sacks, yang jadi ‘penguasa’ AI, pernah menyerang perusahaan ini di media sosial. Dia bilang Anthropic mewakili “AI woke” dan “kompleks industri doomer”. Dia menuduh Anthropic punya “strategi peraturan yang canggih berdasarkan rasa takut”. Intinya, dia bilang para eksekutif Anthropic memperingatkan risiko ekstrem dari AI hanya untuk membenarkan peraturan yang cuma bisa dipatuhi oleh Anthropic dan beberapa perusahaan AI lain.

CEO Anthropic Dario Amodei bilang pandangan itu “tidak akurat”. Dia menekankan bahwa perusahaan punya banyak tujuan kebijakan yang sama dengan pemerintahan Trump, termasuk ingin AS tetap memimpin dalam pengembangan teknologi AI.

MEMBACA  Piper Sandler Mulai Meliput Saham Nabors Industries (NBR) dengan Rating Underweight

Tapi, Sacks dan orang lain di pemerintahan mungkin berharap Hegseth menepati ancamannya untuk mem-blacklist Anthropic dari rantai pasok keamanan nasional.

Perusahaan AI lain, seperti OpenAI dan Google, kelihatannya tidak memberi batasan bagaimana militer AS menggunakan teknologi mereka.

Prinsip vs Pragmatisme

Bekerja dengan militer memang kontroversial di kalangan pekerja teknologi. Tahun 2018, Google menghadapi pemberontakan karyawan karena keputusannya membantu Pentagon dengan “Project Maven”, yaitu proyek menggunakan AI untuk menganalisis gambar pengawasan udara. Pemberontakan ini memaksa Google mundur dari perpanjangan kontraknya. Tapi sejak itu, raksasa internet ini diam-diam memperbarui hubungannya dengan institusi pertahanan. Bulan Desember lalu, Departemen Perang mengumumkan akan menggunakan model AI Gemini milik Google untuk beberapa keperluan.

Owen Daniels dari Center for Security and Emerging Technology (CSET) di Georgetown University bilang ke Associated Press bahwa “rekan-rekan Anthropic, seperti Meta, Google, dan xAI, sudah bersedia mematuhi kebijakan departemen tentang penggunaan model untuk semua aplikasi yang sah. Jadi kekuatan tawar Anthropic di sini terbatas, dan mereka berisiko kehilangan pengaruh dalam upaya departemen mengadopsi AI.”

Tapi prinsip mungkin jadi motivator yang sangat kuat untuk karyawan Anthropic. Perusahaan ini didirikan oleh peneliti yang memisahkan diri dari OpenAI, sebagian karena khawatir lab itu membiarkan tekanan komersial mengalihkan dari misi awalnya. Baru-baru ini, Anthropic juga berprinsip untuk tidak memasang iklan di produk Claude-nya dan tidak membuat chatbot yang khusus dirancang sebagai pendamping romantis atau erotis.

Melihat budaya perusahaan itu, beberapa komentator menduga setidaknya beberapa staf Anthropic akan mengundurkan diri jika perusahaan menuruti permintaan Hegseth dan menghapus batasan dalam kontrak pemerintahnya.

Hegseth juga bilang Pentagon punya opsi lain jika Anthropic tidak menuruti permintaannya secara sukarela. Opsi itu adalah menggunakan Defense Production Act (DPA) tahun 1950 untuk memaksa Anthropic menawarkan versi model Claude tanpa batasan apa pun kepada militer.

MEMBACA  Dua negara menghadapi pemungutan suara kunci mengenai peran masa depan mereka di Eropa

DPA itu awalnya dirancang untuk memungkinkan pemerintah menguasai manufaktur sipil saat perang. Selama pandemi Covid-19, DPA digunakan untuk memaksa perusahaan memproduksi alat pelindung dan vaksin. Sejak itu, DPA dipakai berkali-kali, kebanyakan oleh pemerintahan Biden, bahkan tanpa keadaan darurat nasional yang jelas. Misalnya, tahun 2023 Gedung Putih Biden menggunakan DPA untuk memaksa perusahaan teknologi membagikan informasi tentang pengujian keamanan model AI canggih mereka kepada pemerintah.

Katie Sweeten, yang dulu jadi penghubung Departemen Kehakiman untuk Departemen Pertahanan dan sekarang jadi partner di firma hukum Scale, bilang ke CNN bahwa posisi Hegseth tidak masuk akal dari sudut pandang kebijakan. “Saya kira kita tidak ingin menggunakan teknologi yang jadi risiko rantai pasok, kan? Jadi saya tidak tahu bagaimana menyelaraskannya,” kata dia.

Dean Ball, mantan penasihat kebijakan AI untuk Pemerintahan Trump yang sekarang jadi senior fellow di Foundation for American Innovation, juga menyebut posisi Pentagon “tidak koheren” dalam postingannya di X. “Bagaimana mungkin satu opsi kebijakan adalah ‘risiko rantai pasok’ (biasa dipakai untuk musuh asing) dan opsi lainnya adalah DPA (pengambilalihan darurat aset kritis)?” kata dia.

Ball bilang ke TechCrunch bahwa memberi label risiko rantai pasok akan memberi pesan buruk ke perusahaan mana pun yang bekerja dengan pemerintah. “Itu pada dasarnya pemerintah bilang, ‘Kalau kamu tidak setuju dengan kami secara politik, kami akan coba membuat kamu bangkrut’,” ujarnya.

Beberapa komentator hukum bilang kedua belah pihak punya argumen yang sah. “Kita tidak ingin Lockheed Martin menjual F-35 ke militer lalu memberi tahu Pentagon misi apa yang bisa diterbangkannya,” kata Alan Rozenshtein, profesor hukum di University of Minnesota, dalam kolom di situs Lawfare.

Tapi Rozenshtein juga berargumen bahwa Kongres, bukan Pentagon, yang harus menetapkan aturan untuk penggunaan AI oleh militer AS. “Syarat-syarat tentang bagaimana militer menggunakan teknologi paling transformatif abad ini ditetapkan lewat tawar-menawar bilateral antara menteri pertahanan dan CEO startup, tanpa masukan demokratis dan tanpa batasan yang tahan lama,” tulisnya.

MEMBACA  Carlyle Kumpulkan Dana US$20 Miliar untuk Akuisisi Saham Private Equity Sekunder

Hingga pertengahan pekan ini, Anthropic tidak menunjukkan tanda-tanda akan mengalah dari posisinya.

Masa Depan Claude Dipertaruhkan

Helen Toner, direktur eksekutif sementara CSET Georgetown dan mantan anggota dewan OpenAI, memposting di X bahwa Pentagon mungkin meremehkan keengganan Anthropic untuk meninggalkan posisinya. Sebab—walau kedengeran aneh—menyerah mungkin memberi contoh buruk untuk versi Claude di masa depan. Peneliti Anthropic semakin khawatir tentang apa yang dipelajari setiap versi Claude tentang karakternya sendiri dari data pelatihan yang sekarang termasuk artikel berita dan komentar media sosial tentang Claude itu sendiri.

Tapi perusahaan ini pernah berkompromi saat terdesak. Pada Juni 2025, Anthropic menghadapi ancaman eksistensial ketika hakim federal memutuskan bahwa penggunaan perpustakaan buku bajakan untuk melatih model AI Claude mungkin melanggar hukum hak cipta. Perusahaan ini bisa menghadapi liabilitas puluhan miliar dolar jika kalah di pengadilan. Alih-alih terus berperkara, Anthropic mengumumkan penyelesaian senilai $1,5 miliar dengan pemegang hak cipta.

Dan baru minggu lalu, Anthropic menunjukkan lagi dalam konteks berbeda bahwa mereka kadang mau mengutamakan pragmatisme dan kebutuhan komersial di atas prinsip-prinsip luhur. Perusahaan memperbarui Responsible Scaling Policy (RSP)-nya, menghapus komitmen sebelumnya untuk tidak melatih model AI kecuali bisa menjamin punya kontrol keamanan yang memadai. RSP yang baru hanya berkomitmen untuk menyamai atau melampaui upaya keamanan yang dilakukan pesaing. Anthropic juga bilang akan menunda pengembangan model jika mereka percaya punya keunggulan jelas atas kompetisi dan model yang sedang dilatih itu punya risiko bencana yang signifikan. Jared Kaplan, kepala penelitian Anthropic, bilang ke Time bahwa “komitmen sepihak” tidak masuk akal lagi jika “pesaing melaju cepat”.

Apakah Anthropic akan membuat konsesi serupa pada tekanan komersial dalam perjuangannya dengan Departemen Perang, masih harus kita lihat.

Tinggalkan komentar