Halo dan selamat datang di Eye on AI. Di edisi ini…Pertarungan Pentagon dengan Anthropic menimbulkan tiga pertanyaan penting…OpenAI mengumpulkan dana baru $110 miliar…Meta bereksperimen dengan asisten belanja AI…LLM dapat mengidentifikasi pengguna internet anonim secara besar-besaran…pusat data di garis depan perang Iran.
Tanpa keraguan, cerita paling penting di AI saat ini adalah pertarungan antara Departemen Perang AS dan Anthropic. Jika kamu belum mengikuti dramanya, kamu bisa baca liputan dari saya dan kolega saya di Fortune di sini, di sini, di sini, di sini, di sini, dan di sini.
Cerita ini menimbulkan setidaknya tiga pertanyaan kritis: siapa yang harus mengontrol bagaimana AI digunakan di masyarakat demokratis? Bagaimana kontrol itu harus dilaksanakan? Apa konsekuensinya untuk perusahaan yang tidak setuju dengan kebijakan pemerintah?
Apapun pendapatmu tentang CEO OpenAI Sam Altman dan keputusannya untuk menyetujui kesepakatan dengan Pentagon—termasuk kewajiban kontrak untuk membolehkan militer menggunakan model AI OpenAI "untuk tujuan apa pun yang sah" yang Anthropic tolak setujui—Altman benar mengenali apa yang dipertaruhkan.
Dalam sesi "Tanya Saya Apa Saja" di X akhir pekan lalu, Altman berkata:
"Poin yang sangat penting: kami tidak terpilih. Kita punya proses demokrasi di mana kita memilih pemimpin. Kami ahli tentang teknologi ini dan paham batasannya, tapi saya pikir kita harus takut jika perusahaan swasta yang memutuskan apa yang etis atau tidak di area paling penting. Tampaknya baik bagi kami untuk memutuskan bagaimana ChatGPT merespons pertanyaan kontroversial. Tapi saya sangat tidak ingin kami memutuskan apa yang harus dilakukan jika ada nuklir menuju AS."
Ini inti keberatan Pentagon terhadap kontrak Anthropic. Militer tidak berpikir benar jika perusahaan swasta mendikte kebijakan ke pemerintah terpilih.
AI bergerak cepat sekali, Kongres sangat lambat
Kebanyakan warga Amerika mungkin setuju dengan posisi Pentagon—dalam prinsip. Tapi praktiknya rumit karena tiga hal. Pertama, teknologi AI bergerak sangat cepat, tapi mekanisme kontrol demokratis—undang-undang, pengawasan Kongres, pemilu—bergerak sangat lambat. Dalam tiga tahun sejak ChatGPT muncul, Kongres belum mengesahkan undang-undang federal tentang AI. Pemerintahan Trump telah menghapus regulasi AI terbatas yang dibuat sebelumnya, sambil menghukum negara bagian yang buat regulasi AI sendiri.
Jadi, meski banyak orang setuju bahwa kebijakan penggunaan AI pemerintah harus ditetapkan oleh pejabat terpilih, ada masalah praktis tentang apa yang harus dilakukan ketika wakil terpilih itu tidak bertindak. Gagasan untuk membuat kebijakan AI lewat negosiasi kontrak antara lab dan pemerintah adalah pengganti yang buruk untuk pemerintahan demokratis sejati, tapi mungkin lebih baik daripada tidak ada pengawasan sama sekali. Kontroversi kontrak Anthropic dengan Pentagon harus jadi peringatan bagi Kongres untuk bertindak.
Kedua, tren di pemerintahan selama beberapa dekade terakhir adalah menafsirkan hukum yang ada secara luas untuk memperluas kekuasaan pemerintah menggunakan teknologi untuk mengawasi warganya. Banyak kegiatan militer juga diselimuti kerahasiaan yang menyulitkan pengawasan dan akuntabilitas demokratis. Dorongan terus-menerus pada batas hukum ini membuat publik curiga pada niat pemerintah. Jadi tidak heran jika beberapa orang saat ini mungkin lebih percaya pada eksekutif teknologi yang tampaknya berniat baik dan brilian, tapi tidak terpilih, seperti Dario Amodei dari Anthropic, untuk melakukan hal yang benar dan menetapkan kebijakan yang tepat.
Akhirnya, ada masalah bahwa banyak warga Amerika punya masalah dengan pemerintah ini khususnya. Pemerintahan Trump berulang kali mengambil tindakan tanpa preseden untuk menghukum perbedaan pendapat domestik, sering dengan pembenaran hukum yang lemah, atau tanpa pembenaran hukum sama sekali, dan berulang kali menggunakan militer di dalam negeri untuk mengintimidasi atau menghukum oposisi domestik. Jadi apakah heran jika banyak yang mempertanyakan apakah pemerintahan khusus ini harus diberi kekuasaan untuk menggunakan AI untuk apa pun yang menurut pengacaranya sendiri legal?
Apakah nasionalisasi AI tidak terhindarkan?
Bahkan jika kamu pikir Pentagon benar bahwa pemerintah demokratis, bukan perusahaan swasta, harus memutuskan bagaimana AI digunakan, pertanyaan berikutnya adalah bagaimana kontrol itu harus dilaksanakan? Altman menyentuh pertanyaan utama yang menggantung di industri ini: jika AI terdepan adalah teknologi strategis, mengapa pemerintah tidak menasionalisasikannya saja? Lagipula, banyak terobosan lain dengan implikasi strategis besar—dari Proyek Manhattan hingga perlombaan antariksa hingga upaya awal mengembangkan AI—didanai pemerintah dan sebagian besar diarahkan pemerintah. Seperti kata Altman, "sudah lama menurut saya mungkin lebih baik jika membangun AGI adalah proyek pemerintah," meski dia tambahkan "tampaknya tidak terlalu mungkin pada jalur saat ini."
Pendekatan Pentagon saat ini mendekati nasionalisasi dengan cara lain. Salah satu ancaman DoW adalah menggunakan Defense Production Act, undang-undang era Perang Dingin, untuk memaksa Anthropic mengirimkan model AI sesuai syarat yang mereka inginkan—semacam nasionalisasi lunak dari jalur produksi Anthropic. Dan keputusan balasan untuk memberi label Anthropic sebagai "risiko rantai pasok" dirancang sebagian untuk mengintimidasi perusahaan AI lain agar menerima syarat kontrak pilihan Pentagon, yang lagi-lagi terlihat dekat dengan nasionalisasi.
Apa seharusnya biaya perbedaan pendapat dalam demokrasi?
Akhirnya, ini membawa kita ke pertanyaan tentang hukuman yang tepat untuk perusahaan AI yang menolak menyetujui syarat kontrak pilihan pemerintah. Dean Ball, pakar kebijakan AI yang pernah bekerja singkat untuk pemerintahan Trump, telah berkata, pemerintah tampaknya berhak membatalkan kontrak $200 juta dengan Anthropic.
Tapi keputusan untuk melangkah lebih jauh dan memberi label Anthropic sebagai "risiko rantai pasok" menyerang hak properti pribadi dan kebebasan berbicara di demokrasi liberal. Penetapan ini—yang dimaksudkan untuk digunakan melawan teknologi yang bisa membantu musuh asing—belum pernah diterapkan ke perusahaan AS sebelumnya dan belum pernah digunakan untuk menghukum perusahaan karena tidak setuju dengan syarat kontrak yang diinginkan militer AS. Keputusan ini, kata Ball, sama dengan "percobaan pembunuhan korporat," karena dengan label SCR, perusahaan mana pun yang bekerja dengan Pentagon akan dilarang berhubungan bisnis dengan Anthropic. Jika penafsiran itu bertahan—dan banyak ahli hukum telah berkata itu tidak akan bertahan—itu bisa jadi pukulan mematikan bagi Anthropic, yang bergantung pada penjualan ke perusahaan Fortune 500 besar yang juga bekerja untuk Pentagon. Haruskah hukuman karena tidak setuju dengan pemerintah adalah kematian bisnismu? Itu pasti tampaknya tidak sesuai Amerika.
Altman mengklaim dia membuat kesepakatan dengan Pentagon sebagian untuk meredakan ketegangan antara pemerintah dan perusahaan AI, mengatakan bahwa "kemitraan erat antara pemerintah dan perusahaan yang membangun teknologi ini sangat penting." Meski saya tidak yakin dengan motif sebenarnya Altman, saya setuju dengannya pada poin terakhir ini. Pada saat AI berpotensi mengancam perubahan besar pada ekonomi dan masyarakat, menumbuhkan ketidakpercayaan dan konflik antara pemerintah dan orang-orang yang membangun sistem AI canggih tampaknya seperti ide yang buruk.
Dengan itu, ini berita AI lainnya.
Jeremy Kahn
[email protected]
@jeremyakahn
FORTUNE ON AI
- Anthropic’s Claude lewati ChatGPT di App Store karena pengguna boikot atas kontrak $200 juta OpenAI dengan Pentagon—oleh Marco Quiroz-Gutierrez
- Iran punya niat—dan semakin punya alat—untuk serangan siber bertenaga AI—oleh Sharon Goldman
- Eksklusif: Veteran CrowdStrike dan SentinelOne kumpulkan $34M untuk atasi kesenjangan tata kelola AI perusahaan—oleh Beatrice Nolan
- Kesepakatan Pentagon OpenAI menimbulkan pertanyaan baru tentang AI dan pengawasan massal—oleh Beatrice Nolan
- Minggu ketika ketakutan AI menjadi nyata dan Amerika sadar mungkin belum siap untuk apa yang akan datang—oleh Nick Lichtenberg
AI DI BERITA
- OpenAI tutup putaran pendanaan $110 miliar yang menilai perusahaannya seharga $730 miliar. Putaran ini termasuk $30 miliar dari SoftBank, $50 miliar dari Amazon, dan $30 miliar dari Nvidia. Investasi Amazon terkait sebagian dengan pembelian chip Trainium Amazon oleh OpenAI dan datang secara bertahap tergantung pada pencapaian milestone OpenAI. Perjanjian untuk membangun di AWS Amazon menandai pergeseran strategis untuk OpenAI, yang secara historis bergantung pada cloud Azure Microsoft dan GPU Nvidia. OpenAI telah berbicara tentang mencoba IPO sedini tahun ini. Baca lebih lanjut di sini.
- Lembaga pemerintah mulai tinggalkan Anthropic setelah penetapan ‘risiko rantai pasok’ Pentagon dan pengumuman Trump. Departemen Keuangan AS, Departemen Luar Negeri, dan Departemen Kesehatan dan Layanan Kemanusiaan semua umumkan mereka hentikan penggunaan model Claude Anthropic. Kini pemerintah beralih ke model AI dari OpenAI, Google, dan dalam beberapa kasus, xAI. Lihat lebih lanjut di sini.
- Meta sedang menguji asisten belanja AI. Menurut cerita di Bloomberg, raksasa media sosial itu berharap membuat alat belanja AI yang bisa saingi penawaran ecommerce yang dimasukkan ke ChatGPT OpenAI dan Gemini Google. Fitur Meta, yang sekarang diluncurkan ke beberapa pengguna web AS, memberikan rekomendasi produk dengan gambar, harga, detail merek, dan penjelasan singkat. CEO Mark Zuckerberg menyebut langkah ini sebagai bagian dari dorongan Meta menuju "superkecerdasan pribadi."
- Thinking Machines kehilangan dua lagi anggota tim pendiri. Christian Gibson dan Noah Shpak, dua anggota tim pendiri di "neolab" AI ternama yang didirikan oleh mantan CTO OpenAI Mira Murati, telah diam-diam pergi untuk bergabung dengan Meta. Kepergian mereka menambah gelombang keluar yang lebih luas dari perusahaan yang berbasis di San Francisco itu.
Koreksi, 4 Maret: Versi sebelumnya dari newsletter ini salah menyatakan valuasi OpenAI dari penggalangan dana terbarunya. Itu adalah $730 miliar (pre-money) bukan $730 juta.
EYE ON AI RESEARCH
- AI Dapat Membongkar Pengguna Internet Anonim Secara Besar-besaran. Menurut makalah yang baru diterbitkan dari peneliti di ETH Zurich, Anthropic, dan MATS, para peneliti menemukan bahwa jika mereka memberikan akses internet penuh ke agen AI, ia dapat mengidentifikasi kembali individu anonim yang diwawancarai selama 10 menit oleh model Claude Anthropic. Mereka mengatakan AI mampu melakukan ini dalam hitungan menit. Metode berbasis LLM ini berkinerja jauh lebih baik daripada metode pembelajaran mesin sebelumnya. Temuan ini punya implikasi besar untuk privasi online. Kemampuan LLM untuk melakukan hal-hal seperti ini adalah salah satu masalah yang dikhawatirkan Anthropic dalam negosiasinya dengan Pentagon. Kamu bisa baca makalah penelitiannya di sini.
AI KALENDER
- 2-5 Maret: Mobile World Congress, Barcelona, Spanyol.
- 12-18 Maret: South by Southwest, Austin, Texas.
- 16-19 Maret: Nvidia GTC, San Jose, Calif.
- 6-9 April: HumanX 2026, San Francisco.
BRAIN FOOD
- Saat AI menjadi semakin penting untuk berperang, apakah pusat data menjadi target utama? Itulah yang ditanyakan beberapa orang setelah Amazon melaporkan bahwa dua pusat data AWS-nya di UAE dan satu di Bahrain telah diserang rudal atau drone Iran, membuat mereka tidak berfungsi. Serangan itu memaksa pengguna beralih ke layanan yang dihosting di wilayah yang lebih jauh. Tidak diketahui persis mengapa Iran menyerang pusat data. Bisa jadi mereka hanya mencoba mengganggu layanan internet. Tapi Yanis Varoufakis, ekonom dan mantan menteri keuangan Yunani, adalah salah satu yang berspekulasi bahwa Iran menyerang fasilitas itu dalam upaya mengganggu penggunaan model AI Claude Anthropic oleh militer AS. Meski Pentagon memberi label Anthropic sebagai "risiko rantai pasok" dan mengatakan militer akan segera hentikan penggunaan Claude Anthropic, Wall Street Journal dan Axios telah melaporkan bahwa militer menggunakan Claude untuk bantuan pemrosesan target sebagai bagian dari Operasi Epic Fury. Jadi masuk akal, spekulasi Varoufakis dan lainnya, bahwa Iran menyerang pusat data dalam upaya mengganggu penggunaan Claude oleh militer AS. Tidak jelas apakah benar dalam kasus ini, tapi kemungkinan besar dalam konflik masa depan bahwa pusat data, bahkan yang sangat jauh dari garis depan, akan menjadi target karena betapa pentingnya AI untuk berperang.