Selamat datang di Eye on AI, bersama reporter AI Sharon Goldman. Di edisi ini: Trump hadapi masalah pusat data AI jelang pemilu… Jangan percaya AI untuk urus pajak kamu… Alat AI Claude dari Anthropic jadi pusat kampanye AS di Iran, di tengah perseteruan sengit.
Debat tentang keamanan AI sering fokus pada teknologinya sendiri—seberapa kuat modelnya bisa jadi, atau risiko apa yang mungkin dibawa. Tapi konflik minggu ini yang melibatkan Anthropic, OpenAI, dan Pentagon tunjukkan masalah lebih dalam: seberapa besar kekuasaan atas masa depan AI ada di tangan segelintir pemimpin perusahaan dan pejabat pemerintah yang putuskan bagaimana sistem ini dibangun, dipasang, dan dipakai.
Bertahun-tahun, kritikus industri telah peringatkan risiko "industrial capture"—masa depan di mana pengembangan sistem AI kuat terkonsentrasi di beberapa perusahaan yang kerja erat dengan pemerintah, buat keselamatan sistem itu tergantung pada kepentingan dan persaingan orang yang menjalankannya. Contohnya tahun 2023, peneliti Yoshua Bengio bilang potensi sektor AI dikendalikan beberapa perusahaan adalah "masalah nomor dua" setelah risiko eksistensial dari teknologi ini.
Jadi, tidak terlalu meyakinkan baca kemarin tentang sikap meremehkan yang CEO Anthropic Dario Amodei tunjukkan ke CEO OpenAI Sam Altman dalam memo bocoran yang Amodei tulis ke karyawan hari Jumat. Pesan marah Amodei, yang ternyata dikirim lewat Slack Anthropic ke semua karyawan, muncul setelah OpenAI umumkan kesepakatan untuk menyediakan AI ke Pentagon dan Menteri Perang Pete Hegseth bilang dia nyatakan Anthropic sebagai "risiko rantai pasokan" karena gagal buat kesepakatan serupa.
Amodei sebut pesan OpenAI sebagai "bohong," "sandiwara keamanan," dan "contoh siapa mereka sebenarnya," sementara gambarkan banyak komentar Altman sebagai "kebohongan langsung" dan "gaslighting."
Altman juga pernah serang Anthropic di publik. Dia baru-baru ini sebut salah satu kampanye Super Bowl perusahaan itu "jelas tidak jujur" dan tuduh melakukan "bahasa ganda." Persaingan ini juga jadi terlihat secara simbolis: Di sebuah pertemuan baru-baru ini, Altman dan Amodei viral karena tolak berpegangan tangan untuk foto grup dengan Perdana Menteri Narendra Modi.
Dengan pemerintah AS kurang ambil tindakan untuk atur AI—dan upaya internasional tentang keamanan AI banyak terhambat—dunia pada dasarnya mengandalkan regulasi diri oleh industri. Baik OpenAI dan Anthropic telah dukung paradigma itu dan tanda tangani komitmen keamanan sukarela. Mereka juga pernah kolaborasi untuk jalankan evaluasi keamanan independen pada model masing-masing sebelum model itu dirilis.
Tapi ketika pemimpin dua lab AI paling berpengaruh jelas terlihat tidak akur, dan persaingan mereka sangat sengit, ini munculkan pertanyaan tidak nyaman: sebanyak apa kerjasama soal keamanan yang bisa kita harapkan secara realistis?
Tekanan persaingan sudah pengaruhi kedua perusahaan dalam hal keamanan AI. Anthropic baru-baru ini ubah Kebijakan Skala Bertanggung Jawabnya untuk bilang mereka tidak akan lagi tahan diri secara sepihak dari mengembangkan model baru hanya karena mereka belum tau cara buat model itu aman. Dan OpenAI buat penyesuaian sendiri, hapus larangan eksplisit penggunaan militer dan perang dari kebijakannya di tahun 2024, dan alihkan fokus dari penelitian keamanan ke pengembangan produk sampai mantan pimpinan superalignment Jan Leike (yang pindah ke Anthropic pertengahan 2024) tulis di X bahwa di OpenAI "budaya dan proses keamanan jadi kurang penting dibanding produk yang menarik."
Pendekatan keamanan saat ini berasumsi perusahaan dan pemerintah pada akhirnya akan bertindak dengan hati-hati. Tapi masa depan keamanan AI mungkin akhirnya tergantung pada bagaimana beberapa pemain kuat hadapi tekanan persaingan, geopolitik, dan drama percintaan Silicon Valley yang kadang terjadi.
Dengan itu, ini lebih banyak berita AI.
Sharon Goldman
[email protected]
@sharongoldman
FORTUNE ON AI
Mengapa dana lindung nilai AI Leopold Aschenbrenner bertaruh besar pada perusahaan listrik dan penambang bitcoin untuk bahan bakar perlombaan ‘kecerdasan super’ – oleh Sharon Goldman
OpenAI lihat pengguna Codex melonjak jadi 1,6 juta, posisikan alat coding sebagai gerbang ke agen AI untuk bisnis – oleh Jeremy Kahn
Startup Korea wrtn sedang menuju pendapatan tahunan berulang $100M, naik gelombang kesepian yang ditenagai AI hiburan – oleh Nicolas Gordon
AI DI BERITA
Trump hadapi masalah pusat data AI jelang pemilu. CNBC dan lainnya laporkan Presiden Trump hadapi dilema politik yang tumbuh saat AS bergegas bangun pusat data AI yang lapar energi jelang pemilu 2026. Infrastruktur yang diperlukan untuk tenagai ledakan AI picu kekhawatiran tentang kenaikan harga listrik dan tekanan pada jaringan, memicu penolakan dari pemilih dan komunitas lokal. Sebagai tanggapan, perusahaan teknologi besar—termasuk OpenAI, Microsoft, Google, Amazon, Meta, dan Oracle—telah janji untuk tanggung biaya energi dan infrastruktur terkait pusat data AI mereka supaya konsumen tidak lihat tagihan listrik lebih tinggi. Kesepakatan sukarela, dipromosikan Gedung Putih sebagai cara redam kekhawatiran pemilih, cerminkan ketegangan lebih luas: pembuat kebijakan ingin keuntungan ekonomi dan geopolitik dari ekspansi AI cepat, tapi kebutuhan listrik besar dari teknologi ini ciptakan tekanan politik dan lingkungan yang semakin sulit diabaikan.
Jangan percaya AI untuk urus pajak kamu. Dalam hasil yang seharusnya tidak mengejutkan siapa pun, tes oleh The New York Times temukan AI tidak cocok untuk aturan pajak AS, sorot keterbatasan penting chatbot AI saat ini: mereka masih kesulitan dengan tugas yang butuh penalaran multi-langkah tepat. Untuk nilai kemampuan teknologi ini isi formulir pajak penghasilan federal, koran uji empat chatbot AI — Gemini Google, ChatGPT OpenAI, Claude Anthropic dan Grok xAI — untuk lihat seberapa baik mereka tangani delapan situasi pajak fiksi. Mereka sangat kesulitan, salah hitung pengembalian dana atau jumlah yang harus dibayar ke IRS rata-rata lebih dari $2,000. Bahkan ketika disediakan semua bahan yang diperlukan, termasuk semua formulir yang perlu diisi, chatbot gagal dalam beberapa perhitungan. Masalah ini gambarkan keterbatasan mendasar model bahasa besar: mereka dirancang untuk prediksi kata kemungkinan daripada telusuri informasi kompleks dan terhubung dengan tepat, buat mereka kuat dalam menulis dan ringkasan tapi lebih lemah di tugas prosedural seperti pengisian pajak. Ahli bilang sistem mungkin membaik dengan alat penalaran tambahan dan lapisan verifikasi, tapi untuk sekarang mereka bekerja paling baik sebagai asisten daripada pengganti—pengingat lagi bahwa bahkan saat AI ubah industri dari coding ke kedokteran, beberapa tugas yang kelihatan sederhana tetap sulit secara mengejutkan.
Alat AI Claude Anthropic jadi pusat kampanye AS di Iran, di tengah perseteruan sengit. Laporan baru dari The Washington Post sorot seberapa cepat AI pindah dari eksperimen ke medan perang. Menurut koran itu, militer AS pakai sistem target berbasis AI bernama Maven Smart System—dibangun Palantir dan gabungkan model Claude Anthropic—untuk bantu identifikasi dan prioritaskan target selama operasi AS baru-baru ini di Iran, percepat yang dulu butuh minggu perencanaan militer jadi pengambilan keputusan hampir waktu-nyata. Tapi pengerahan ini terjadi di tengah perselisihan sengit antara Anthropic dan Pentagon tentang batas bagaimana teknologinya bisa dipakai dalam perang, termasuk kekhawatiran tentang senjata otonom dan pengawasan massal. Episode ini tekankan baik pentingnya strategis sistem AI frontier yang tumbuh dan ketegangan antara permintaan pemerintah untuk pengerahan cepat dan upaya perusahaan untuk tetapkan batas keamanan.
ANGKA EYE ON AI
$25 miliar
Itu jumlah pendapatan tahunan OpenAI pada akhir bulan lalu, menurut laporan oleh The Information—lonjakan 17% dari angka $21,4 miliar yang dimiliki akhir tahun, menurut dua orang yang kenal angka tersebut.
OpenAI masih hasilkan lebih banyak pendapatan daripada saingan terdekatnya, Anthropic, meski jaraknya cepat mengecil. Pendapatan tahunan Anthropic baru-baru ini tembus $19 miliar, hampir tiga kali lipat dari akhir tahun lalu dan naik 36% hanya dalam dua minggu terakhir.
OpenAI hitung pendapatan tahunan dengan kalikan pendapatan empat minggu sebelumnya dengan 12. Satu sumber bilang jika perusahaan ekstrapolasi dari lonjakan pendapatan minggu paling baru saja, angka tahunannya akan mendekati $30 miliar.
Pertumbuhan cepat Anthropic sebagian didorong permintaan kuat untuk model AI fokus coding mereka, yang telah bantu perusahaan cepat perkecil jarak pendapatan dengan OpenAI. Baru pada 2025, OpenAI hasilkan kira-kira tiga kali lipat pendapatan Anthropic.
KALENDER AI
2-5 Maret: Mobile World Congress, Barcelona, Spanyol.
12-18 Maret: South by Southwest, Austin, Texas.
16-19 Maret: Nvidia GTC, San Jose, California.
6-9 April: HumanX, San Francisco.