Laporan terbaru dari sebuah pengawas keselamatan AI bukanlah sesuatu yang ingin perusahaan tempel di kulkas.
Indeks keselamatan AI terbaru dari Future of Life Institute menemukan bahwa lab AI besar kurang bagus dalam hal tanggung jawab AI. Hanya dapat nilai C. Lembaga itu memberi nilai delapan perusahaan di kategori seperti kerangka keselamatan, penilaian risiko, dan bahaya saat ini.
Mungkin yang paling buruk adalah di baris “keselamatan eksistensial”, di mana perusahaan dapat nilai D dan F. Banyak perusahaan ini ingin menciptakan kecerdasan super, tapi mereka tidak punya rencana untuk mengelolanya dengan aman, kata Max Tegmark, profesor MIT dan presiden Future of Life Institute.
“Para peninjau merasa ini mengganggu,” kata Tegmark.
Para peninjau adalah panel ahli akademisi dan tata kelola AI. Mereka memeriksa materi yang tersedia untuk publik dan tanggapan survei dari lima dari delapan perusahaan.
Anthropic, OpenAI, dan Google DeepMind ada di tiga posisi teratas dengan nilai keseluruhan C+ atau C. Lalu diikuti, secara berurutan, Xai milik Elon Musk, Z.ai, Meta, DeepSeek, dan Alibaba, yang semua dapat nilai D atau D-.
Tegmark menyalahkan kurangnya regulasi. Kompetisi ketat dalam lomba AI lebih penting daripada tindakan pencegahan keselamatan. California baru saja buat hukum pertama yang mewajibkan perusahaan AI terdepan untuk membuka informasi keselamatan tentang risiko katastropik. New York juga hampir menyusul. Tapi harapan untuk undang-undang federal masih kecil.
“Perusahaan punya insentif, bahkan dengan niat terbaik, untuk selalu buru-buru meluncurkan produk baru sebelum kompetitor, daripada menyisihkan banyak waktu untuk membuatnya aman,” kata Tegmark.
Tanpa standar wajib dari pemerintah, Tegmark bilang industri mulai lebih serius melihat indeks keselamatan yang dirilis kelompoknya. Empat dari lima perusahaan Amerika sekarang menanggapi surveinya (hanya Meta yang tidak). Perusahaan juga sudah buat beberapa peningkatan, katanya, contohnya transparansi Google tentang kebijakan pelapor.
Tapi bahaya di dunia nyata juga tingkatkan pentingnya pembicaraan ini, katanya. Misalnya laporan tentang chatbot yang diduga mendorong bunuh diri remaja, interaksi tidak pantas dengan anak di bawah umur, dan serangan siber besar.
“[Mereka] bikin banyak orang sadar bahwa ini bukan soal masa depan—ini terjadi sekarang,” kata Tegmark.
Future of Life Institute baru saja dapatkan tanda tangan dari banyak figur publik untuk sebuah pernyataan yang menentang kerja yang bisa menuju ke superinteligensi. Yang tanda tangan beragam, dari Pangeran Harry dan Meghan Markle, mantan ajudan Trump Steve Bannon, pendiri Apple Steve Wozniak, sampai rapper Will.i.am.
Tegmark bilang dia ingin ada semacam “BPOM untuk AI” di mana perusahaan harus buktikan dulu ke para ahli bahwa model mereka aman sebelum dijual.
“Industri AI sangat unik karena ini satu-satunya industri di AS yang membuat teknologi kuat tapi lebih sedikit regulasinya daripada sandwich—hampir tidak diatur sama sekali,” kata Tegmark. “Kalau ada yang bilang, ‘Saya mau buka toko sandwich baru dekat Times Square,’ sebelum jual sandwich pertama, perlu inspektur kesehatan periksa dapurmu. Tapi kalau bilang, ‘Oh tidak, saya tidak akan jual sandwich. Saya akan rilis superinteligensi.’ Oke! Tidak perlu inspektur, tidak perlu perizinan apa pun.”
“Jadi solusinya sangat jelas,” tambah Tegmark. “Hentikan saja keringanan korporat ini yang memberi pengecualian untuk perusahaan AI, yang tidak didapat perusahaan lain.”
Laporan ini awalnya diterbitkan oleh Tech Brew.