Para Pemimpin AI Ini Juga Khawatir dengan Superinteligensi, Begini Alasannya

MirageC/Moment via Getty Images

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


**Poin Penting ZDNET**
Para pemimpin berargumen bahwa AI dapat menjadi ancaman eksistensial bagi umat manusia.
Figur-figur terkemuka di bidang AI, bersama 1.300 lainnya, mendukung kekhawatiran tersebut.
Publik juga sama-sama khawatir tentang “kecerdasan super”.


Peluncuran mengejutkan ChatGPT hampir tiga tahun lalu menjadi tanda dimulainya perlombaan AI yang sejak itu terus melaju kencang. Kini, sekelompok pakar industri memperingatkan — dan bukan untuk pertama kalinya — bahwa laboratorium AI harus memperlambat laju sebelum umat manusia mendorong dirinya sendiri ke jurang kehancuran.

Juga: Apa yang sebenarnya dikatakan Bill Gates tentang AI menggantikan pekerjaan coding

Sebuah pernyataan yang diterbitkan Rabu oleh Future of Life Institute (FLI), sebuah organisasi nirlaba yang berfokus pada risiko eksistensial AI, berargumen bahwa pengembangan “kecerdasan super” — sebuah istilah populer di industri AI yang biasanya merujuk pada kecerdasan mesin hipotetis yang dapat mengungguli manusia dalam segala tugas kognitif — menghadirkan risiko eksistensial dan karenanya harus dihentikan hingga jalur yang aman ke depan dapat ditetapkan.

Peringatan Serius

Persaingan tak terkendali di antara laboratorium AI terkemuka untuk membangun kecerdasan super dapat mengakibatkan “ketinggalan zaman dan pelemahan ekonomi manusia, hilangnya kebebasan, kebebasan sipil, martabat, dan kendali, hingga risiko keamanan nasional dan bahkan potensi kepunahan manusia,” tulis para penulis pernyataan itu.

Mereka melanjutkan dengan argumen bahwa larangan pengembangan mesin supercerdas dapat diberlakukan hingga ada (1) “konsensus ilmiah yang luas bahwa hal itu akan dilakukan dengan aman dan terkendali,” serta (2) “dukungan kuat dari publik.”

Petisi tersebut telah memiliki lebih dari 1.300 tanda tangan hingga Rabu siang. Penandatangan terkemuka termasuk Geoffrey Hinton dan Yoshua Bengio, yang keduanya berbagi Penghargaan Turing pada 2018 (bersama dengan peneliti lain Yann LeCun) untuk karya perintis mereka pada jaringan saraf dan kini dikenal sebagai dua dari “Bapak Baptis AI.”

MEMBACA  Langganan PlayStation Plus Disuguhi Game-Game Gratis Bulan September

Juga: Apa yang dilakukan perintis AI Yoshua Bengio selanjutnya untuk membuat AI lebih aman

Ilmuwan komputer Stuart Russell, salah satu pendiri Apple Steve Wozniak, pendiri Virgin Group Sir Richard Branson, mantan Kepala Strategi pemerintahan Trump Steve Bannon, komentator politik Glenn Beck, penulis Yuval Noah Harari, dan banyak tokoh terkemuka lainnya di bidang teknologi, pemerintah, dan akademisi juga telah menandatangani pernyataan itu.

Dan mereka bukanlah satu-satunya yang tampaknya khawatir tentang kecerdasan super. Pada hari Minggu, FLI menerbitkan hasil jajak pendapat yang dilakukan dengan 2.000 orang dewasa Amerika yang menemukan bahwa 64% responden “merasa bahwa AI yang melebihi manusia tidak boleh dikembangkan hingga terbukti aman dan dapat dikendalikan, atau tidak boleh dikembangkan sama sekali.”

Apa itu “Kecerdasan Super”?

Tidak selalu mudah untuk menarik garis tegas antara embel-embel pemasaran dan legitimasi teknis, terutama ketika menyangkut teknologi yang sedang tren seperti AI.

Juga: Apa yang tidak diungkapkan oleh penawaran ‘kecerdasan super pribadi’ Zuckerberg

Seperti kecerdasan umum buatan, atau AGI, “kecerdasan super” adalah istilah yang didefinisikan secara samar yang baru-baru ini diambil alih oleh beberapa pengembang teknologi untuk menggambarkan anak tangga berikutnya dalam tangga evolusi AI: sebuah mesin yang belum terwujud yang dapat melakukan segala sesuatu yang bisa dilakukan otak manusia, hanya lebih baik.

Pada bulan Juni, Meta meluncurkan bagian R&D internal yang dikhususkan untuk membangun teknologi tersebut, yang mereka sebut Superintelligence Labs. Pada sekitar waktu yang sama, Altman menerbitkan posting blog pribadi yang berargumen bahwa kemunculan kecerdasan super sudah dekat. (Petisi FLI mengutip posting blog 2015 dari Altman di mana ia menggambarkan “kecerdasan mesin supermanusia” sebagai “mungkin ancaman terbesar bagi kelangsungan eksistensi umat manusia.”)

MEMBACA  5.448 Unit iPhone 16 Telah Tiba di Indonesia, Ini Penjelasan dari Bea Cukai

Ingin lebih banyak cerita tentang AI? Daftar untuk AI Leaderboard, newsletter mingguan kami.

Istilah “kecerdasan super” dipopulerkan oleh sebuah buku tahun 2014 dengan nama yang sama oleh filsuf Oxford Nick Bostrom, yang sebagian besar ditulis sebagai peringatan tentang bahaya membangun sistem AI yang dapat meningkatkan diri sendiri yang suatu hari nanti dapat lepas dari kendali manusia.

Para Ahli Tetap Khawatir

Bengio, Russell, dan Wozniak juga termasuk di antara penandatangan surat terbuka 2023, yang juga diterbitkan oleh FLI, yang menyerukan jeda enam bulan untuk pelatihan model AI yang sangat kuat.

Juga: Laporan keselamatan AI terbaru Google mengeksplorasi AI di luar kendali manusia

Meskipun surat itu mendapat perhatian luas di media dan membantu memicu debat publik tentang keamanan AI, dorongan untuk cepat membangun dan mengkomersialkan model AI baru — yang, pada saat itu, telah sepenuhnya melanda industri teknologi — pada akhirnya mengalahkan keinginan untuk menerapkan moratorium skala besar. Regulasi AI yang signifikan, setidaknya di AS, juga masih kurang.

Dorongan itu hanya tumbuh seiring persaingan yang melampaui batas-batas Silicon Valley dan melintasi perbatasan internasional. Presiden Donald Trump dan beberapa pemimpin teknologi terkemuka seperti CEO OpenAI Sam Altman telah membingkai perlombaan AI sebagai kompetisi geopolitik dan ekonomi antara AS dan Cina.

Pada saat yang sama, peneliti keamanan dari perusahaan AI terkemuka termasuk OpenAI, Anthropic, Meta, dan Google telah mengeluarkan pernyataan berskala lebih kecil yang sesekali tentang pentingnya memantau komponen tertentu dari model AI untuk perilaku berisiko seiring bidang ini berkembang.