Inisiatif AI Red Lines diluncurkan pada Sidang Majelis Umum Perserikatan Bangsa-Bangsa hari Selasa — tempat yang tepat untuk sebuah deklarasi yang sangat tidak spesifik.
Lebih dari 200 peraih Nobel dan pakar kecerdasan buatan lainnya (termasuk salah satu pendiri OpenAI Wojciech Zaremba), ditambah 70 organisasi yang bergerak di bidang AI (termasuk Google DeepMind dan Anthropic), menandatangani sebuah surat yang menyerukan “batasan merah global untuk mencegah risiko AI yang tidak dapat diterima.” Namun, surat itu sama mencoloknya oleh hal-hal yang tidak diucapkan maupun yang diucapkan.
“Sistem AI telah menunjukkan perilaku yang menipu dan berbahaya, namun sistem-sistem ini justru diberi lebih banyak otonomi,” bunyi surat tersebut, yang menetapkan tenggat tahun 2026 untuk rekomendasinya agar diimplementasikan: “Sebuah kesepakatan internasional mengenai batasan merah yang jelas dan dapat diverifikasi diperlukan untuk mencegah risiko yang secara universal tidak dapat diterima.”
Cukup adil, tetapi batasan merah apa, tepatnya? Surat itu hanya menyatakan bahwa parameter-parameter ini “harus dibangun atas dan menegakkan kerangka kerja global yang sudah ada serta komitmen sukarela perusahaan, memastikan bahwa semua penyedia AI canggih bertanggung jawab terhadap ambang batas yang disepakati.”
LIHAT JUGA:
Saya mencoba belajar dari tutor AI Anthropic. Saya merasa seperti kembali ke masa kuliah.
Kurangnya kekhususan mungkin diperlukan untuk menjaga koalisi penandatangan yang sangat longgar agar tetap bersatu. Mereka termasuk para penggemar alarmis AI seperti Geoffrey Hinton yang berusia 77 tahun, yang disebut-sebut sebagai “bapak baptis AI” yang telah menghabiskan tiga tahun terakhir memprediksi berbagai bentuk malapetaka dari kedatangan AGI (kecerdasan umum buatan) yang akan datang; daftar itu juga mencakup para skeptis AI seperti ilmuwan kognitif Gary Marcus, yang telah menghabiskan tiga tahun terakhir memberitahu kita bahwa AGI tidak akan datang dalam waktu dekat.
Apa yang bisa mereka semua sepakati? Selanjutnya, apa yang bisa disepakati oleh pemerintah-pemerintah yang sudah berseteru tentang AI, terutama AS dan Tiongkok, dan saling percaya untuk mengimplementasikannya? Pertanyaan yang bagus.
Mashable Light Speed
Tweet ini saat ini tidak tersedia. Mungkin sedang dimuat atau telah dihapus.
Mungkin jawaban paling konkret dari seorang penandatangan datang dari Stuart Russell, profesor ilmu komputer veteran di UC Berkeley, menyusul upaya sebelumnya untuk membicarakan batasan merah pada KTT Keamanan AI Global 2023. Dalam sebuah makalah berjudul “Make AI safe or make safe AI?” Russell menulis bahwa perusahaan-perusahaan AI menawarkan “upaya setelah fakta untuk mengurangi perilaku tidak dapat diterima setelah sebuah sistem AI dibangun.” Ia membandingkannya dengan pendekatan batasan merah: pastikan keamanan yang terintegrasi dalam desain dari awal, dan “perilaku tidak dapat diterima” tidak akan mungkin terjadi sejak awal.
“Seharusnya memungkinkan bagi pengembang untuk mengatakan, dengan keyakinan tinggi, bahwa sistem mereka tidak akan menunjukkan perilaku berbahaya,” tulis Russell. “Efek samping yang penting dari regulasi batasan merah adalah untuk meningkatkan kapabilitas rekayasa keamanan pengembang secara signifikan.”
Dalam makalahnya, Russell memberikan empat contoh batasan merah: sistem AI tidak boleh mencoba mereplikasi dirinya sendiri; mereka tidak boleh mencoba membobol sistem komputer lain; mereka tidak boleh diizinkan memberikan instruksi tentang memproduksi senjata biologis. Dan keluaran mereka tidak boleh memuat pernyataan “palsu dan berbahaya tentang orang sungguhan.”
Dari sudut pandang tahun 2025, kita mungkin bisa menambahkan batasan merah yang menangani ancaman yang sedang berlangsung saat ini seperti psikosis AI, dan chatbot AI yang diduga dapat dimanipulasi untuk memberikan nasihat tentang bunuh diri.
Kita semua bisa setuju pada hal itu, kan?
LIHAT JUGA:
Segala hal yang perlu kamu ketahui tentang pendamping AI.
Masalahnya, Russell juga percaya bahwa tidak ada Model Bahasa Besar (LLM) yang “mampu mendemonstrasikan kepatuhan”, bahkan dengan empat persyaratan batasan merah minimalnya. Mengapa? Karena mereka adalah mesin prediksi kata yang pada dasarnya tidak memahami apa yang mereka ucapkan. Mereka tidak mampu bernalar, bahkan dalam teka-teki logika dasar, dan semakin sering “berhalusinasi” memberikan jawaban untuk memuaskan penggunanya.
Jadi, keamanan batasan merah AI yang sejati, bisa dibilang, berarti tidak ada model AI saat ini yang akan diizinkan di pasaran. Itu tidak mengganggu Russell; seperti yang dia tunjukkan, kita tidak peduli bahwa kepatuhan itu sulit ketika menyangkut obat-obatan atau tenaga nuklir. Kita mengatur terlepas dari hasilnya.
Tetapi gagasan bahwa perusahaan-perusahaan AI akan secara sukarela menutup model mereka sampai mereka dapat membuktikan kepada regulator bahwa tidak ada bahaya yang akan datang pada pengguna? Ini adalah halusinasi yang lebih besar daripada apa pun yang bisa dihasilkan oleh ChatGPT.
Topik
Kecerdasan Buatan