Dalam sebuah postingan X pada Jumat malam, Sam Altman mengumumkan bahwa perusahaannya, OpenAI, baru saja “mencapai kesepakatan dengan Departemen Perang untuk menggunakan model kami di jaringan rahasia mereka.” Waktu pengumuman ini mengejutkan dan signifikan, menjadikan Altman semacam ikon untuk AI dalam perang.
Beberapa jam sebelumnya, pesaing utama OpenAI, Anthropic, diberitahu bahwa produknya menerima semacam blacklist dari Pentagon—sebuah penetapan sebagai “risiko rantai pasok bagi keamanan nasional.” Anthropic telah mendeklarasikan “garis batas” terkait penggunaan teknologinya untuk pengawasan massal dan senjata otonom penuh, dan Pentagon menilai ini tidak dapat diterima. Jadi, menurut Menteri Perang Pete Hegseth, tidak ada perusahaan yang bekerja sama dengan Pentagon yang “boleh melakukan aktivitas komersial apa pun dengan Anthropic.”
Seperti dicatat Axios, kerangka hukum Pentagon untuk penetapan ini masih harus ditunggu, dan penetapan risiko rantai pasok biasanya disematkan kepada perusahaan yang berbasis di—dan berpotensi mendukung—negara yang dianggap bermusuhan dengan AS. Bagaimanapun, langkah ini sesuai dengan pola Trump 2.0 yang sudah mapan: menghajar pihak mana pun yang tidak disukai pemerintahan dengan tongkat terbesar dan paling tajam yang tersedia, dan membiarkan pengadilan memutuskan nanti apakah penggunaan tongkat tersebut sah atau tidak.
Tapi kerugian Anthropic, setidaknya secara teoretis, adalah keuntungan Sam Altman. Sedikit mundur, keberadaan Anthropic sendiri adalah tamparan bagi Altman—karena Anthropic pada awalnya diciptakan sebagai semacam pecahan dari OpenAI, yang konon didedikasikan untuk standar etika dan keamanan yang menurut Amodei dan timnya tidak dipatuhi oleh OpenAI. Jadi iklan Super Bowl di mana Anthropic secara tidak halus mengkritik OpenAI tampaknya bukan produk persaingan yang bersahabat. Altman dan pendiri sekaligus CEO Anthropic, Dario Amodei, tampak tidak pandai menyembunyikan kebencian mereka satu sama lain. Pada sesi foto para pemimpin AI di India awal bulan ini, keduanya dengan jelas menolak untuk saling menggenggam tangan.
Seperti telah dicatat oleh kolega saya di Gizmodo, AJ Dellinger, komentar Sam Altman yang bocor dan tampaknya sengaja diungkap bersamaan dengan kesepakatan OpenAI-Pentagon, menunjukkan Altman berusaha meraih semacam sikap moral serupa dengan Amodei mengenai pengawasan dan robot pembunuh otonom. Namun klaim semacam itu dari Altman sudah dibantah sebagai omong kosong belaka oleh pejabat Departemen Luar Negeri dan mantan pejabat DOGE, Jeremy Lewin, yang memposting di X bahwa prinsip yang dinyatakan Altman itu, dalam praktiknya, hanyalah embel-embel penyenang hati yang ditambahkan dalam perjanjian, yang secara kuat diisyaratkan Lewin, tidak memberi OpenAI kekuatan apa pun untuk menghentikan Pentagon melakukan apa pun yang mereka inginkan dengan model OpenAI. Berbeda dengan Anthropic, perusahaan ini telah “mencapai jawaban yang patriotik dan benar di sini,” tulis Lewin.
Tapi keraguan Altman tentang “garis batas” Anthropic sudah bertentangan secara semangat dengan pernyataannya awal bulan ini tentang Anthropic dalam postingan X panjangnya mengenai iklan Super Bowl Anthropic yang jahat (layak dibaca sepenuhnya karena itu adalah contoh klasik dari bersikap Tidak Marah).
Pertama, bagian bagus dari iklan Anthropic: mereka lucu, dan saya tertawa.
Tapi saya bertanya-tanya mengapa Anthropic memilih sesuatu yang jelas-jelas tidak jujur. Prinsip terpenting kami untuk iklan menyatakan bahwa kami tidak akan melakukan hal persis seperti ini; kami jelas tidak akan pernah menayangkan iklan dengan cara seperti Anthropic…
— Sam Altman (@sama) 4 Februari 2026
Dalam keluhannya tentang iklan tersebut, Altman membuat penyimpangan panjang untuk menyindir, pada dasarnya, hal yang sama yang membuat Pentagon marah. Perusahaan Amodei, kata Altman, “ingin mengontrol apa yang orang lakukan dengan AI.” Mereka juga, katanya, “memblokir perusahaan yang tidak mereka sukai dari menggunakan produk pengkodean mereka (termasuk kami), [dan] mereka ingin menulis sendiri aturan untuk apa yang boleh dan tidak boleh dilakukan orang dengan AI.”
Apapun istilah yang ingin digunakan untuk strategi Anthropic, itu sangat efektif dari sudut pandang bisnis. Jika 2025 adalah tahun kesuksesan AI Google, sejauh ini 2026 adalah milik Anthropic—dengan heboh seputar produk andalannya, Claude Code, yang menyebabkan versi perusahaan dari gempa ChatGPT 2022. Langkah-langkah harian Anthropic telah menetapkan agenda Wall Street sepanjang tahun. Bulan ini, Anthropic melampaui OpenAI dalam total dana yang dihimpun.
Tapi, yang agak aneh, Altman juga mengambil sikap yang bernada populis dalam kritiknya terhadap iklan Super Bowl Anthropic, di mana ia menyatakan bahwa “Anthropic melayani produk mahal untuk orang kaya.” Ini pada dasarnya tidak bermakna karena OpenAI dan Anthropic sama-sama mengenakan biaya untuk langganan dan akses API. Tapi Altman sepertinya memposisikan ChatGPT yang didukung iklan dan mungkin versi produk kodenya, Codex, yang didukung iklan di masa depan, sebagai versi demokratis untuk orang biasa, dan membandingkannya dengan Anthropic yang untuk “orang kaya.” Pemaknaan yang ia inginkan mungkin bukan yang diserap publik.
Jelas, realitas dan persepsi mungkin berada di jalur yang sama sekali berbeda di sini. Pentagon membantah bahwa alasan yang dinyatakan Anthropic adalah inti masalah ini. “Ini tidak ada hubungannya dengan pengawasan massal dan senjata otonom yang digunakan. Pentagon hanya memberikan perintah yang sah,” kata seorang pejabat Pentagon anonim seperti dilaporkan kepada CBS News.
Selain itu, aturan mandiri Anthropic yang membatasi kapasitasnya untuk meningkatkan skala telah direvisi menjadi pedoman yang lebih fleksibel pada Selasa lalu.
Jadi, tidak ada alasan untuk mempercayai narasi bahwa produk Anthropic memiliki “jiwa,” atau bahwa Anthropic adalah entitas selain sebuah korporasi publik berorientasi laba, yang berusaha mematuhi ketentuan dalam sertifikat pendiriannya yang tidak biasa—yang mewajibkannya untuk menghasilkan keuntungan sebanyak mungkin sambil berkomitmen “mengembangkan dan memelihara AI canggih secara bertanggung jawab untuk manfaat jangka panjang umat manusia.” Tampaknya ini adalah jalan yang sulit, sebab bahkan setelah Pentagon mencapnya, Amodei menyatakan, “Kami tetap terbuka untuk bekerja sama selama hal itu sejalan dengan batasan-batasan kami.”
Namun, dilabeli sebagai “PERUSAHAAN KIRI RADIKAL DAN WOKE” oleh Donald Trump justru bisa menjadi manuver bisnis yang cerdik.
Beberapa jam setelah pengumuman Altman mengenai kesepakatan dengan Pentagon-nya Trump, Pentagon yang sama melancarkan apa yang disebut presiden sebagai “operasi tempur besar” terhadap Iran bersama Israel. Jajak pendapat dari Associated Press dan Universitas Chicago yang terbit awal pekan ini menunjukkan mayoritas warga Amerika sudah memiliki sedikit atau tidak ada kepercayaan terhadap Trump dalam hal keamanan nasional, dan jajak pendapat YouGov terbaru mengungkapkan bahwa mereka lebih banyak menolak daripada mendukung perang dengan Iran. Jajak pendapat Gallup yang dirilis kemarin menemukan, yang cukup mengejutkan, bahwa lebih banyak warga Amerika kini “bersimpati” kepada Palestina dibandingkan Israel.
Di tengah latar politik tersebut, perselisihan “batasan merah” Anthropic dengan Pentagon telah menciptakan sebuah ruang simbolis berlabel “AI yang Sepenuhnya Bersahabat dengan Mesin Perang AS” dalam huruf-huruf neon besar, dan menggeser narasi perusahaannya jauh dari ruang itu. Sam Altman dan OpenAI, tampaknya, justru dengan sukarela melangkah ke dalamnya.
Kontraktor militer yang saat ini menggunakan produk Anthropic seperti Claude Code akan memiliki tenggat waktu enam bulan untuk menghentikan penggunaanya, menurut Pentagon. Anthropic sendiri telah menyatakan akan mengajukan keberatan atas penetapan ini di pengadilan. Selama proses tersebut, citra publik Anthropic akan terlepas dari persepsi mengenai perang baru dengan Iran ini. Hal yang sama tidak dapat dikatakan untuk OpenAI.