Para Ahli AI Mendesak Pemerintah untuk Segera Bertindak

Nampaknya semua orang mengakui bahwa kecerdasaan buatan merupakan teknologi yang berkembang dan muncul dengan pesat, yang memiliki potensi bahaya besar jika dioperasikan tanpa pengamanan. Namun, pada dasarnya tak ada satu pun—kecuali mungkin Uni Eropa—yang bisa sepakat soal cara mengaturnya. Alih-alih mencoba menetapkan jalur yang jelas dan sempit untuk mengizinkan AI beroperasi, para ahli di bidang ini memilih pendekatan baru: bagaimana jika kita hanya mencari tahu contoh-contoh ekstrem apa yang kita semua anggap buruk dan sepakat saja atas hal itu?

Pada Senin lalu, sekelompok politisi, ilmuwan, dan akademisi tampil di Majelis Umum Perserikatan Bangsa-Bangsa untuk mengumumkan Seruan Global untuk Batasan Merah AI, sebuah permohonan agar pemerintah di seluruh dunia bersatu dan menyepakati pagar pengaman yang paling luas guna mencegah “risiko yang tak dapat diterima secara universal” yang mungkin timbul dari penerapan AI. Tujuan kelompok ini adalah agar batasan-batasan merah ini ditetapkan paling lambat akhir tahun 2026.

Hingga saat ini, proposal tersebut telah mengumpulkan lebih dari 200 tanda tangan dari para ahli industri, pemimpin politik, hingga peraih Nobel. Mantan Presiden Irlandia, Mary Robinson, dan mantan Presiden Kolombia, Juan Manuel Santos, turut mendukung, demikian juga dengan peraih Nobel Stephen Fry dan Yuval Noah Harari. Geoffrey Hinton dan Yoshua Bengio—dua dari tiga tokoh yang sering dijuluki “Bapak Baptis AI” karena kerja fondasional mereka di bidang ini—juga telah mencantumkan nama mereka dalam daftar.

Lalu, apa sajakah batasan merah itu? Nah, itu masih menjadi tugas pemerintah untuk memutuskannya. Seruan ini tidak mencakup resep atau rekomendasi kebijakan yang spesifik, meskipun menyebutkan beberapa contoh yang bisa dijadikan batasan merah. Melarang peluncuran senjata nuklir atau penggunaan AI dalam upaya pengawasan massal disebutkan sebagai batasan potensial untuk penggunaan AI, sementara melarang pembuatan AI yang tidak dapat dihentikan oleh manusia menjadi kemungkinan batasan untuk perilaku AI. Namun mereka sangat jelas: jangan mengukurnya dalam batu, ini hanya contoh, Anda bisa membuat aturan sendiri.

MEMBACA  Wordle hari ini: Jawaban dan petunjuk untuk 30 Oktober

Satu-satunya hal yang ditawarkan kelompok ini secara konkret adalah bahwa setiap kesepakatan global harus dibangun di atas tiga pilar: “daftar larangan yang jelas; mekanisme verifikasi yang kuat dan dapat diaudit; serta penunjukan badan independen yang dibentuk oleh Para Pihak untuk mengawasi implementasi.”

Namun, detailnya terserah pemerintah untuk disepakati. Dan itulah bagian yang sulit. Seruan ini merekomendasikan negara-negara untuk menyelenggarakan sejumlah KTT dan kelompok kerja untuk memikirkan semua ini, tetapi pasti ada banyak motif yang bersaing dalam percakapan-percakapan tersebut.

Sebagai contoh, Amerika Serikat telah berkomitmen untuk tidak mengizinkan AI mengendalikan senjata nuklir (kesepakatan yang dibuat di bawah pemerintahan Biden, jadi entahlah apakah itu masih berlaku). Tetapi laporan terkini menunjukkan bahwa sebagian komunitas intelijen di era pemerintahan Trump sudah kesal dengan fakta bahwa beberapa perusahaan AI tidak mengizinkan mereka menggunakan alat-alatnya untuk pengawasan domestik. Jadi, akankah Amerika setuju dengan proposal semacam ini? Mungkin kita akan tahu jawabnya pada akhir 2026… jika kita bisa bertahan sampai saat itu.