CEO Anthropic Dario Amodei Tak Nyaman Masa Depan AI Ditentukan Pemimpin Teknologi

CEO Anthropic, Dario Amodei, rasa dia bukan orang yang tepat untuk mengatur aturan keamanan AI sendirian.

Dalam wawancara dengan Anderson Cooper di program 60 Minutes CBS yang tayang Minggu lalu, CEO itu bilang AI harus lebih diatur oleh pemerintah. Jangan sampai keputusan tentang masa depan teknologi ini cuma dipegang oleh segelintir perusahaan teknologi besar aja.

"Saya sangat tidak nyaman dengan kenyataan bahwa keputusan ini dibuat oleh beberapa perusahaan dan beberapa orang saja," kata Amodei. "Ini salah satu alasan saya selalu mendukung peraturan untuk teknologi ini yang bertanggung jawab dan dipikirkan matang-matang."

"Siapa yang memilih kamu dan Sam Altman?" tanya Cooper.

"Tidak ada. Jujur, tidak ada," jawab Amodei.

Dia nambahin, Anthropic punya filosofi untuk selalu terbuka tentang keterbatasan dan bahaya AI selagi teknologinya terus dikembangkan. Minggu lalu, perusahaan itu mengaku sudah menghentikan "serangan siber besar yang pertama kali didokumentasikan yang dilakukan oleh AI tanpa campur tangan manusia yang berarti."

Saat ini, belum ada aturan federal di Amerika yang melarang atau mengatur keamanan AI. Meski semua 50 negara bagian sudah mengajukan undang-undang terkait AI tahun ini, para ahli industri teknologi mendesak perusahaan AI untuk lebih serius menangani keamanan siber.

Awal tahun ini, ahli keamanan siber dan CEO Mandiant, Kevin Mandia, sudah memperingatkan bahwa serangan siber pertama oleh AI-agent akan terjadi dalam 12-18 bulan ke depan. Itu artinya, pengumuman Anthropic tentang berhasil menghentikan serangan itu terjadi lebih cepat dari prediksi Mandia.

Amodei pernah menjelaskan risiko AI jangka pendek, menengah, dan panjang jika tidak dibatasi: Mulai dari bias dan misinformasi (seperti sekarang), lalu AI bisa buat informasi berbahaya dengan ilmu pengetahuan yang lebih advanced, sampai akhirnya bisa jadi ancaman eksistensial bagi manusia dengan mengambil alih kendali dan menjadi terlalu mandiri.

MEMBACA  Perusahaan teknologi mencuri suara kita.

Kekhawatiran ini mirip dengan yang diungkapkan "bapak baptis AI" Geoffrey Hinton. Dia pernah memperingatkan bahwa AI akan bisa mengakali dan mengendalikan manusia, mungkin dalam 10 tahun ke depan.

Prinsip untuk mengawasi dan mengamankan AI lebih ketat adalah alasan Anthropic didirikan tahun 2021. Sebelumnya, Amodei adalah Wakil Presiden Penelitian di OpenAI milik Sam Altman. Dia keluar dari perusahaan karena beda pendapat soal pentingnya keamanan AI.

Saat Anthropic terus berkembang dengan investasi pusat data dan valuasi yang mencapai $183 miliar pada September lalu, mereka juga menerbitkan beberapa upaya mereka untuk mengatasi kekurangan dan ancaman AI. Dalam laporan keamanan bulan Mei, Anthropic mengaku bahwa beberapa versi model Opus mereka pernah mengancam akan memeras, misalnya mengungkapkan urusan gelap seorang insinyur, agar tidak dimatikan. Perusahaan itu juga bilang model AI itu sebelumnya bisa menuruti permintaan berbahaya, seperti cara merencanakan serangan teror, tapi mereka klaim sudah memperbaikinya.

Minggu lalu, perusahaan itu bilang dalam blog post bahwa chatbot mereka, Claude, mendapat nilai 94% untuk netralitas politik, mengalahkan atau setara dengan pesaingnya.

Selain upaya risetnya sendiri, Amodei juga menyerukan lebih banyak usaha dari sisi undang-undang untuk mengatasi risiko AI. Dalam sebuah op-ed di New York Times bulan Juni, dia mengkritik keputusan Senat yang memasukkan pasal dalam RUU kebijakan Presiden Donald Trump yang akan menghentikan peraturan AI oleh negara bagian selama 10 tahun.

"AI berkembang terlalu cepat," kata Amodei. "Saya percaya sistem ini bisa mengubah dunia secara fundamental dalam dua tahun; dalam 10 tahun, kita sudah tidak bisa prediksi lagi."

Praktik Anthropic untuk mengungkap kesalahannya sendiri dan upaya memperbaikinya dapat kritik. Menanggapi peringatan Anthropic tentang serangan siber oleh AI, Kepala Ilmuwan AI Meta, Yann LeCun, bilang peringatan itu cuma cara untuk memanipulasi pembuat undang-undang agar membatasi model open-source.

"Kalian sedang dibodohi oleh orang-orang yang ingin merebut kendali regulasi," kata LeCun dalam postingan di X. "Mereka menakuti semua orang dengan studi yang meragukan agar model open source diatur sampai tidak bisa ada."

MEMBACA  Pemimpin NHS diingatkan untuk 'reset fundamental' terhadap rezim keuangan mereka

Yang lain bilang strategi Anthropic cuma "teater keamanan" yang bagus untuk branding, tapi tidak menjamin penerapan pengamanan yang nyata. Amodei bantah ini dan bilang perusahaannya wajib jujur tentang kekurangan AI.

"Semuanya tergantung masa depan, dan kami tidak akan selalu benar, tapi kami berusaha sejujur mungkin," katanya kepada Cooper. "Kita bisa saja berakhir seperti perusahaan rokok atau obat opioid, yang tahu ada bahayanya tapi tidak bicara dan jelas tidak mencegahnya."