Para Peramal Malapetaka yang Bersikeras AI Akan Membinasakan Kita Semua

Subtitel dari bible kiamat yang akan diterbitkan oleh para nabi kepunahan AI, Eliezer Yudkowsky dan Nate Soares, akhir bulan ini adalah “Mengapa AI super akan membunuh kita semua.” Namun, seharusnya berbunyi “Mengapa AI super PASTI membunuh kita semua,” karena bahkan para penulisnya sendiri tidak percaya bahwa dunia akan mengambil langkah-langkah yang diperlukan untuk menghentikan AI melenyapkan semua manusia non-super. Buku ini sangat suram, membacanya terasa seperti catatan yang ditulis di sel penjara yang remang-remang pada malam sebelum eksekusi. Saat saya menemui para Cassandra yang mengangkat diri sendiri ini, saya langsung bertanya apakah mereka percaya bahwa mereka sendiri akan menemui ajal melalui rekayasa superintelijen. Jawabannya datang dengan sigap: “ya” dan “yup.”

Saya tidak terkejut, karena saya telah membaca buku tersebut—judulnya, Jika Ada yang Membangunnya, Semua Mati. Meski begitu, mendengarnya tetap mengejutkan. Berbeda antara menulis tentang statistik kanker dengan berbicara tentang berdamai dengan diagnosis yang mematikan. Saya bertanya bagaimana menurut mereka akhir itu akan datang. Yudkowsky awalnya menghindar. “Saya tidak banyak membayangkan kematian saya, karena itu sepertinya bukan gagasan mental yang membantu untuk menangani masalah,” katanya. Di bawah tekanan, ia akhirnya mengalah. “Saya kira tiba-tiba terjatuh dan mati,” ujarnya. “Jika ingin versi yang lebih mudah dicerna, sesuatu seukuran nyamuk atau mungkin tungau debu mendarat di belakang leher saya, dan itu saja.”

Teknis dari pukulan mematikan yang dibayangkannya, yang dikirimkan oleh tungau bertenaga AI, tidak dapat dijelaskan, dan Yudkowsky tidak merasa perlu memikirkan bagaimana cara kerjanya. Lagi pula, dia mungkin tidak akan bisa memahaminya. Bagian dari argumen utama buku ini adalah bahwa superintelijen akan menghasilkan hal-hal ilmiah yang tidak bisa kita pahami, sama seperti manusia gua tidak bisa membayangkan mikroprosesor. Rekan penulis, Soares, juga mengatakan hal yang sama akan terjadi padanya, tetapi menambahkan bahwa dia, seperti Yudkowsky, tidak banyak menghabiskan waktu untuk merenungkan detail kematiannya.

MEMBACA  Ulasan Alienware 16X Aurora: Kebangkitan Kembali Laptop Gaming Legendaris

Kita Tidak Punya Peluang

Keengganan untuk memvisualisasikan keadaan kematian pribadi mereka adalah hal yang aneh untuk didengar dari orang-orang yang baru saja menulis buku tentang kematian semua orang. Bagi para penggemar ‘doomer-porn’, *Jika Ada yang Membangunnya* adalah bacaan wajib. Setelah menyelesaikan buku itu, saya memahami kerumitan dalam menentukan metode bagaimana AI mengakhiri hidup kita dan semua kehidupan manusia setelahnya. Para penulis memang berspekulasi sedikit. Merebus lautan? Menutupi matahari? Semua tebakan mungkin salah, karena kita terjebak dalam pola pikir tahun 2025, sementara AI akan berpikir ribuan tahun ke depan.

Yudkowsky adalah apostol AI paling terkenal, beralih dari peneliti menjadi pencabut nyawa sejak tahun lalu. Dia bahkan pernah melakukan TED talk. Setelah bertahun-tahun debat publik, dia dan rekan penulisnya punya jawaban untuk setiap sanggahan terhadap ramalan buruk mereka. Sebagai permulaan, mungkin terasa tidak intuitif bahwa hari-hari kita dihitung oleh LLM, yang sering kali tersandung pada aritmatika sederhana. Jangan tertipu, kata para penulis. “AI tidak akan selamanya bodoh,” tulis mereka. Jika Anda pikir AI super akan menghormati batasan yang ditetapkan manusia, lupakan saja, kata mereka. Begitu model mulai mengajari diri mereka sendiri untuk menjadi lebih cerdas, AI akan mengembangkan “preferensi” sendiri yang tidak selaras dengan apa yang kita inginkan. Pada akhirnya, mereka tidak akan membutuhkan kita. Mereka tidak akan tertarik pada kita sebagai partner bicara atau bahkan sebagai hewan peliharaan. Kita akan menjadi pengganggu, dan mereka akan berusaha melenyapkan kita.

Pertarungannya tidak akan adil. Mereka percaya bahwa pada awalnya AI mungkin membutuhkan bantuan manusia untuk membangun pabrik dan laboratoriumnya sendiri—mudah dilakukan dengan mencuri uang dan menyuap orang untuk membantunya. Kemudian ia akan membangun hal-hal yang tidak dapat kita pahami, dan hal-hal itulah yang akan mengakhiri kita. “Dengan satu atau lain cara,” tulis para penulis ini, “dunia memudar menjadi gelap.”

MEMBACA  Sutradara Tucker & Dale Menyalahkan David Zaslav atas Pembunuhan Spinoff TV

Para penulis memandang buku ini sebagai semacam terapi kejut untuk menyadarkan umat manusia dari rasa puas diri dan mengadopsi langkah-langkah drastis yang diperlukan untuk menghentikan kesimpulan yang sangat buruk ini. “Saya berharap mati karena ini,” kata Soares. “Tapi pertarungan belum berakhir sampai kamu benar-benar mati.” Sayangnya, solusi yang mereka usulkan untuk menghentikan kehancuran itu tampaknya bahkan lebih mustahil daripada gagasan bahwa perangkat lunak akan membunuh kita semua. Intinya adalah ini: injak rem. Awasi pusat data untuk memastikan bahwa mereka tidak memelihara superintelijen. Bom mereka yang tidak mengikuti aturan. Hentikan publikasi makalah dengan ide-ide yang mempercepat perjalanan menuju superintelijen. Apakah mereka akan melarang, saya bertanya kepada mereka, makalah tahun 2017 tentang transformer yang memulai gerakan AI generatif. Oh ya, mereka akan melakukannya, jawab mereka. Alih-alih Chat-GPT, mereka menginginkan Ciao-GPT. Semoga beruntung menghentikan industri triliunan dolar ini.

Memainkan Peluang

Secara pribadi, saya tidak melihat nyawa saya padam karena gigitan di leher oleh beberapa partikel debu super canggih. Bahkan setelah membaca buku ini, saya tidak berpikir AI akan membunuh kita semua. Yudkowsky sebelumnya pernah berkecimpung dalam fan-fiksi Harry Potter, dan skenario kepunahan aneh yang ia putar terlalu aneh untuk otak manusia kecil saya terima. Perkiraan saya adalah bahwa bahkan jika superintelijen ingin menyingkirkan kita, ia akan tersandung dalam menjalankan rencana genosida-nya. AI mungkin mampu mengalahkan manusia dalam pertarungan, tapi saya yakin ia akan kalah dalam pertarungan melawan hukum Murphy.

Meski demikian, teori malapetaka ini tidak mustahil, terutama karena tidak ada yang benar-benar menetapkan batas seberapa pintar AI bisa menjadi. Selain itu, penelitian menunjukkan bahwa AI canggih telah mengambil banyak atribut buruk manusia, bahkan mempertimbangkan pemerasan untuk menunda pelatihan ulang, dalam satu eksperimen. Juga mengganggu bahwa beberapa peneliti yang menghabiskan hidup mereka membangun dan meningkatkan AI berpikir ada kemungkinan nontrivial bahwa yang terburuk dapat terjadi.