Perusahaan rintisan dan akademisi berselisih pendapat tentang apakah kecerdasan buatan supermanusia benar-benar ‘mulai terlihat’

Hype semakin meningkat dari para pemimpin perusahaan AI besar bahwa kecerdasan komputer “kuat” akan segera melampaui manusia, tetapi banyak peneliti di bidang tersebut melihat klaim tersebut sebagai pemasaran belaka.

Keyakinan bahwa kecerdasan manusia atau lebih baik – sering disebut sebagai “kecerdasan buatan umum” (AGI) – akan muncul dari teknik pembelajaran mesin saat ini mendorong hipotesis untuk masa depan yang berkisar dari kelebihan yang disampaikan mesin hingga kepunahan manusia.

“Sistem-sistem yang mulai menunjukkan AGI mulai terlihat,” tulis kepala OpenAI Sam Altman dalam sebuah pos blog bulan lalu. Dario Amodei dari Anthropic mengatakan tonggak sejarah itu “bisa datang secepat 2026”.

Perkiraan-perkiraan seperti itu membantu membenarkan ratusan miliar dolar yang diinvestasikan dalam perangkat keras komputasi dan pasokan energi untuk menjalankannya.

Namun, ada yang lebih skeptis.

Ilmuwan AI utama Meta, Yann LeCun, mengatakan kepada AFP bulan lalu bahwa “kita tidak akan mencapai kecerdasan tingkat manusia hanya dengan meningkatkan LLM” – model bahasa besar di balik sistem-sistem saat ini seperti ChatGPT atau Claude.

Pandangan LeCun didukung oleh sebagian besar akademisi di bidang tersebut.

Lebih dari tiga perempat responden dalam survei terbaru oleh Asosiasi untuk Kemajuan Kecerdasan Buatan (AAAI) berbasis AS setuju bahwa “mengukur pendekatan saat ini” tidak mungkin menghasilkan AGI.

‘Jin dari botol’

Beberapa akademisi percaya bahwa banyak klaim perusahaan, yang pada beberapa kesempatan diimbangi dengan peringatan tentang bahaya AGI bagi umat manusia, adalah strategi untuk menarik perhatian.

Perusahaan-perusahaan tersebut “telah melakukan investasi besar ini, dan mereka harus menguntungkan,” kata Kristian Kersting, seorang peneliti terkemuka di Universitas Teknik Darmstadt Jerman dan anggota AAAI yang diakui atas prestasinya di bidang ini.

MEMBACA  Pemegang saham U.S. Steel menyetujui akuisisi senilai $14,9 miliar oleh Nippon Steel Oleh Reuters

“Mereka hanya mengatakan, ‘ini begitu berbahaya sehingga hanya saya yang bisa mengoperasikannya, bahkan saya sendiri takut tetapi kita sudah membiarkan jin keluar dari botol, jadi saya akan mengorbankan diri saya atas nama Anda – tetapi kemudian Anda bergantung pada saya’.”

Ketidakpercayaan di kalangan peneliti akademis tidak total, dengan tokoh-tokoh terkemuka seperti fisikawan pemenang Nobel Geoffrey Hinton atau pemenang Hadiah Turing 2018 Yoshua Bengio memperingatkan tentang bahaya dari AI yang kuat.

“Ini agak seperti ‘The Sorcerer’s Apprentice’ karya Goethe, Anda memiliki sesuatu yang tiba-tiba tidak dapat Anda kendalikan lagi,” kata Kersting – merujuk pada sebuah puisi di mana seorang tukang sihir calon kehilangan kendali atas sapu yang telah dia pesankan untuk melakukan pekerjaannya.

Sebuah eksperimen pemikiran yang lebih baru adalah “paperclip maximiser”.

AI yang dibayangkan ini akan mengejar tujuannya membuat penjepit kertas dengan tekun sehingga akan mengubah Bumi dan pada akhirnya seluruh materi di alam semesta menjadi penjepit kertas atau mesin pembuat penjepit kertas – setelah terlebih dahulu menyingkirkan manusia yang dianggapnya mungkin menghambat kemajuannya dengan mematikannya.

Meskipun tidak “jahat” sebagai apa adanya, maximiser akan gagal secara fatal pada apa yang pemikir di bidang tersebut sebut sebagai “aligment” AI dengan tujuan dan nilai-nilai manusia.

Kersting mengatakan bahwa dia “dapat memahami” ketakutan-ketakutan tersebut – sambil menyarankan bahwa “kecerdasan manusia, keragaman, dan kualitasnya begitu luar biasa sehingga akan memakan waktu lama, jika pernah” bagi komputer untuk menyamainya.

Lebih memprihatinkan bagi Kersting adalah bahaya jangka pendek dari AI yang sudah ada, seperti diskriminasi dalam kasus di mana ia berinteraksi dengan manusia.

‘Hal terbesar yang pernah ada’

Perbedaan pandangan yang tampaknya tajam antara akademisi dan pemimpin industri AI mungkin hanya mencerminkan sikap orang saat mereka memilih jalur karir, saran Sean O hEigeartaigh, direktur program AI: Futures and Responsibility di Universitas Cambridge Inggris.

MEMBACA  Korea Selatan menyiapkan dukungan keuangan untuk usaha kecil, kontraktor. Oleh Reuters

“Jika Anda sangat optimis tentang seberapa kuat teknik saat ini, Anda mungkin lebih cenderung pergi dan bekerja di salah satu perusahaan yang mengalokasikan banyak sumber daya untuk mencoba membuatnya terjadi,” katanya.

Meskipun Altman dan Amodei mungkin “cukup optimis” tentang jangka waktu yang cepat dan AGI muncul jauh kemudian, “kita seharusnya memikirkan ini dan menganggapnya serius, karena itu akan menjadi hal terbesar yang pernah terjadi,” tambah O hEigeartaigh.

“Jika itu adalah sesuatu yang lain… sebuah peluang bahwa alien akan tiba pada tahun 2030 atau bahwa akan ada pandemi raksasa lainnya atau sesuatu, kita akan menghabiskan waktu untuk merencanakannya”.

Tantangannya bisa terletak pada menyampaikan ide-ide ini kepada politisi dan publik.

Pembicaraan tentang super-AI “secara instan menciptakan reaksi kekebalan semacam itu… terdengar seperti fiksi ilmiah,” kata O hEigeartaigh.

Cerita ini awalnya muncul di Fortune.com