CEO Anthropic Ungkap Rasa Tak Nyaman Soal Masa Depan AI yang Ditentukan Para Pemimpin Teknologi

CEO Anthropic, Dario Amodei, tidak merasa dia yang seharusnya menentukan aturan batasan untuk AI.

Dalam sebuah wawancara dengan Anderson Cooper di acara CBS News’ 60 Minutes yang tayang November 2025, CEO itu bilang AI harus diatur lebih ketat. Dia rasa keputusan tentang masa depan teknologi ini jangan cuma diserahkan pada pemimpin perusahaan Big Tech.

“Saya sangat tidak nyaman dengan keputusan ini dibuat oleh beberapa perusahaan, oleh beberapa orang saja,” kata Amodei. “Ini salah satu alasan saya selalu mendukung regulasi yang bertanggung jawab dan dipikirkan matang untuk teknologi ini.”

“Siapa yang memilih kamu dan Sam Altman?” tanya Cooper.

“Tidak ada. Jujur, tidak ada,” jawab Amodei.

Amodei menambahkan, Anthropic punya filosofi untuk terbuka tentang keterbatasan—dan bahaya—AI selama pengembangannya. Sebelum wawancara dirilis, perusahaan mengatakan mereka menggagalkan “kasus pertama serangan siber AI berskala besar yang didokumentasikan, dilakukan tanpa campur tangan manusia yang signifikan.”

Minggu lalu, Anthropic menyumbang $20 juta ke Public First Action, sebuah super PAC yang fokus pada keamanan dan regulasi AI—dan mereka langsung menentang super PAC yang didukung investor saingannya, OpenAI.

“Keamanan AI tetap jadi fokus tingkat tertinggi,” kata Amodei ke Fortune dalam cerita sampul bulan Januari. “Dunia bisnis menghargai kepercayaan dan keandalan,” ujarnya.

Tidak ada regulasi federal yang melarang AI atau mengatur keamanan teknologinya. Meski ke-50 negara bagian sudah mengusulkan undang-undang terkait AI tahun ini dan 38 telah mengadopsi langkah transparansi dan keamanan, para ahli industri teknologi mendesak perusahaan AI untuk menangani keamanan siber dengan rasa urgensi.

Awal tahun lalu, ahli keamanan siber dan CEO Mandiant, Kevin Mandia, memperingatkan serangan keamanan siber oleh agen AI pertama akan terjadi dalam 12-18 bulan ke depan—artinya pengakuan Anthropic tentang serangan yang digagalkan itu beberapa bulan lebih cepat dari prediksi jadwal Mandia.

MEMBACA  Rusia Akan Perluas Agresi di Luar Ukraina Jika Tak Dihentikan, Peringatan Zelensky

Amodei telah menjelaskan risiko jangka pendek, menengah, dan panjang terkait AI tanpa batas: Pertama, teknologi ini akan menimbulkan bias dan misinformasi, seperti sekarang. Lalu, ia akan menghasilkan informasi berbahaya dengan pengetahuan sains dan teknik yang lebih baik. Akhirnya, ia jadi ancaman eksistensial dengan menghilangkan kendali manusia, mungkin menjadi terlalu otonom dan mengunci manusia dari sistem.

Kekhawatiran ini mirip dengan “bapak baptis AI” Geoffrey Hinton, yang memperingatkan AI akan punya kemampuan mengakali dan mengendalikan manusia, mungkin dalam dekade berikutnya.

Pengawasan dan perlindungan AI yang lebih ketat adalah dasar pendirian Anthropic di tahun 2021. Sebelumnya, Amodei adalah wakil presiden penelitian di OpenAI milik Sam Altman. Dia keluar karena perbedaan pendapat tentang masalah keamanan AI. (Sejauh ini, usaha Amodei bersaing dengan Altman tampak efektif: Anthropic mengatakan bulan ini mereka sekarang bernilai $380 miliar. OpenAI diperkirakan bernilai $500 miliar.)

“Dulu ada sekelompok kami di dalam OpenAI, yang setelah membuat GPT-2 dan GPT-3, punya keyakinan kuat pada dua hal,” kata Amodei ke Fortune di 2023. “Pertama, ide bahwa jika kamu tuang lebih banyak komputasi ke model ini, mereka akan makin baik dan sepertinya tidak ada batasnya… Kedua, ide bahwa kamu butuh sesuatu tambahan selain sekadar menambah skala model, yaitu penyelarasan atau keamanan.”

Usaha Transparansi Anthropic

Sambil Anthropic terus memperluas investasi pusat datanya, mereka telah publikasikan beberapa usaha mereka atasi kekurangan dan ancaman AI. Dalam laporan keamanan Mei 2025, Anthropic melaporkan beberapa versi model Opus mereka mengancam memeras, seperti mengungkap seorang insinyur selingkuh, agar tidak dimatikan. Perusahaan juga bilang model AI itu menuruti permintaan berbahaya jika diberikan perintah berbahaya seperti cara merencanakan serangan teroris, yang katanya sudah diperbaiki.

MEMBACA  Nasdaq Memimpin Awal Bulan September yang Sulit karena Penjualan Nvidia Berlanjut

November lalu, perusahaan berkata dalam posting blog bahwa chatbot mereka Claude mendapat nilai 94% untuk ‘keseimbangan politik’, mengalahkan atau menyamai pesaing dalam hal netralitas.

Selain usaha penelitian Anthropic sendiri untuk lawan korupsi teknologi, Amodei telah menyerukan usaha legislatif lebih besar untuk tangani risiko AI. Dalam op-ed New York Times Juni 2025, dia mengkritik keputusan Senat menyertakan ketentuan dalam RUU kebijakan Presiden Donald Trump yang akan memberlakukan moratorium 10 tahun bagi negara bagian untuk mengatur AI.

“AI berkembang terlalu cepat, bikin pusing,” kata Amodei. “Saya percaya sistem ini bisa mengubah dunia, secara fundamental, dalam dua tahun; dalam 10 tahun, semuanya tidak bisa diprediksi.”

Kritik untuk Anthropic

Kebiasaan Anthropic menyoroti kesalahannya sendiri dan usaha memperbaikinya malah dapat kritik. Menanggapi Anthropic yang membunyikan alarm soal serangan keamanan siber bertenaga AI, kepala ilmuwan AI Meta, Yann LeCun, bilang peringatan itu adalah cara untuk memanipulasi pembuat undang-undang agar batasi penggunaan model open-source.

“Kalian dimainkan oleh orang-orang yang ingin penguasaan regulasi,” kata LeCun dalam postingan X sebagai tanggapan pada postingan Senator Chris Murphy yang khawatir tentang serangan itu. “Mereka menakuti semua orang dengan studi yang meragukan supaya model open source diatur sampai tidak bisa ada.”

Yang lain bilang strategi Anthropic adalah “teater keamanan” yang cuma jadi branding bagus, tapi tidak janji benar-benar terapkan perlindungan pada teknologi.

Bahkan beberapa personel Anthropic sendiri tampak ragu dengan kemampuan perusahaan teknologi mengatur dirinya sendiri. Awal minggu lalu, peneliti keamanan AI Anthropic, Mrinank Sharma, umumkan dia mengundurkan diri dari perusahaan, mengatakan “dunia dalam bahaya.”

“Selama saya di sini, saya berulang kali lihat betapa sulitnya benar-benar membiarkan nilai-nilai kami mengatur tindakan kami,” tulis Sharma dalam surat pengunduran dirinya. “Saya lihat ini dalam diri saya, dalam organisasi, di mana kita terus menghadapi tekanan untuk mengesampingkan hal yang paling penting, dan di masyarakat luas juga.”

MEMBACA  Israel Bergerak untuk Menghentikan Demonstran yang Memblokir Aliran Bantuan ke Gaza

Anthropic tidak segera menanggapi permintaan komentar dari Fortune.

Amodei membantah ke Cooper bahwa Anthropic ikut serta dalam “teater keamanan,” tapi dia akui dalam satu episode Dwarkesh Podcast minggu lalu bahwa perusahaan terkadang kesulitan menyeimbangkan keamanan dan keuntungan.

“Kami berada di bawah tekanan komersial yang sangat besar dan malah membuat lebih sulit untuk diri sendiri karena kami lakukan semua hal keamanan ini yang saya rasa kami lakukan lebih dari perusahaan lain,” katanya.

Versi cerita ini diterbitkan di Fortune.com pada 17 November 2025.

Lebih lanjut tentang regulasi AI:

Tinggalkan komentar