Apa itu kecerdasan buatan umum?

Menciptakan AGI secara kasar jatuh ke dalam dua kamp: tetap dengan pendekatan saat ini untuk AI dan memperluasnya ke skala yang lebih besar, atau mencari arah baru yang belum begitu banyak dieksplorasi. Bentuk dominan dari AI adalah bidang “deep learning” dalam pembelajaran mesin, di mana jaringan saraf dilatih pada set data besar. Diberikan kemajuan yang terlihat dalam pendekatan tersebut, seperti kemajuan dari model bahasa OpenAI dari GPT-1 hingga GPT-2 hingga GPT-3 dan GPT-4, banyak yang menganjurkan untuk tetap pada jalur tersebut. Kurzweil, misalnya, melihat AGI sebagai perpanjangan dari kemajuan terbaru pada model bahasa besar, seperti Gemini milik Google. “Memperbesar model-model tersebut semakin dekat dengan kompleksitas otak manusia adalah penggerak utama dari tren-tren ini,” tulisnya. Bagi Kurzweil, memperbesar AI saat ini seperti aturan Moore’s Law yang terkenal dalam semikonduktor, di mana chip semakin kuat secara progresif. Kemajuan Moore’s Law, tulisnya, adalah contoh dari konsep luas yang diciptakan oleh Kurzweil, “pengembalian yang cepat.” Kemajuan dalam Gen AI, tegas Kurzweil, telah menunjukkan pertumbuhan yang lebih cepat daripada Moore’s Law karena algoritma-algoritma cerdas. Program-program seperti DALL*E milik OpenAI, yang dapat membuat gambar dari awal, adalah awal dari kreativitas mirip manusia, menurut pandangan Kurzweil. Mendeskripsikan dalam teks sebuah gambar yang belum pernah dilihat sebelumnya, seperti, “Gelas koktail bercinta dengan serbet,” akan memicu gambar asli dari program tersebut. Juga: Kecerdasan Buatan generatif adalah teknologi yang paling dirasakan tekanannya oleh IT. Kurzweil melihat generasi gambar tersebut sebagai contoh dari “zero-shot learning”, ketika model AI yang terlatih dapat menghasilkan output yang tidak ada dalam data pelatihannya. “Zero-shot learning adalah inti dari pemikiran analogis dan kecerdasan itu sendiri,” tulis Kurzweil. “Kreativitas ini akan mengubah bidang-bidang kreatif yang baru-baru ini tampaknya hanya dalam ranah manusia,” tulisnya. Namun, jaringan saraf harus berkembang dari tugas-tugas tertentu yang sempit seperti mengeluarkan kalimat hingga fleksibilitas yang jauh lebih besar, dan kemampuan untuk menangani beberapa tugas. Unit DeepMind milik Google menciptakan draf kasar dari model AI yang fleksibel seperti itu pada tahun 2022, model Gato, yang diikuti pada tahun yang sama oleh model lain yang lebih fleksibel, PaLM. Model-model yang semakin besar, berpendapat Kurzweil, bahkan akan mencapai beberapa area yang menurutnya masih kurang dalam Gen AI saat ini, seperti “pemodelan dunia”, di mana model AI memiliki “model yang kuat tentang bagaimana dunia nyata bekerja.” Kemampuan tersebut akan memungkinkan AGI untuk menunjukkan rasa umum, katanya. Kurzweil bersikeras bahwa tidak terlalu penting bagaimana mesin mencapai perilaku mirip manusia, asalkan output-nya benar. “Jika proses komputasi yang berbeda mengarahkan AI masa depan untuk membuat penemuan ilmiah yang revolusioner atau menulis novel yang menyayat hati, mengapa kita harus peduli bagaimana mereka dihasilkan?” tulisnya. Sekali lagi, penulis survei DeepMind menekankan pengembangan AGI sebagai proses yang sedang berlangsung yang akan mencapai tingkat yang berbeda, daripada satu titik kritis seperti yang diimplikasikan oleh Kurzweil. Juga: 8 cara untuk mengurangi halusinasi ChatGPT. Orang lain skeptis terhadap jalur saat ini mengingat Gen AI saat ini telah difokuskan terutama pada aplikasi yang mungkin bermanfaat tanpa mempertimbangkan kualitas “mirip manusia” mereka. Gary Marcus telah berpendapat bahwa kombinasi antara deep learning berbasis jaringan saraf saat ini dan tradisi lama lainnya dalam AI, penalaran simbolis, diperlukan. Sebuah perpaduan seperti itu akan menjadi penalaran “neuro-simbolik.” Marcus tidak sendirian. Startup yang didukung oleh modal ventura bernama Symbolica baru-baru ini muncul dari mode stealth mempertahankan bentuk campuran neuro-simbolik. Pernyataan misi perusahaan tersebut menyiratkan bahwa akan melampaui apa yang mereka lihat sebagai keterbatasan model bahasa besar. “Semua model bahasa besar state of the art saat ini seperti ChatGPT, Claude, dan Gemini, berdasarkan arsitektur inti yang sama,” kata perusahaan tersebut. “Akibatnya, mereka semua menderita dari keterbatasan yang sama.” Pendekatan neuro-simbolik Symbolica mencapai inti dari perdebatan antara “kemampuan” dan “proses” yang disebutkan di atas. Salah untuk menghilangkan proses, berpendapat pendiri Symbolica, sama seperti yang dikatakan filsuf Searle. “Arsitektur kognitif Symbolica memodelkan proses generatif multi-skala yang digunakan oleh para ahli manusia,” klaim perusahaan tersebut. Juga: ChatGPT tidak terlalu inovatif, dan tidak ada yang revolusioner, kata ilmuwan AI Meta. Juga skeptis terhadap status quo adalah LeCun dari Meta. Ia mengulangi keraguan-keraguan terhadap pendekatan Gen AI konvensional dalam pernyataan terbarunya. Dalam sebuah pos di X, LeCun menyoroti kegagalan Claude milik Anthropic untuk memecahkan masalah penalaran dasar. Sebaliknya, LeCun telah berpendapat untuk menghilangkan model AI yang bergantung pada pengukuran distribusi probabilitas, yang mencakup hampir semua model bahasa besar dan model multimodal terkait. Sebagai gantinya, LeCun mendorong untuk apa yang disebut model berbasis energi, yang meminjam konsep-konsep dari fisika statistik. Model-model tersebut, katanya, mungkin akan membuka jalan ke “prediksi abstrak”, kata LeCun, memungkinkan untuk “model dunia yang terpadu” untuk AI yang mampu merencanakan tugas-tugas berbagai tahap. Juga: LeCun, ilmuwan AI terkemuka Meta, menjelajahi frontier energi deep learning. Chalmers mempertahankan bahwa mungkin ada “lebih dari 20% probabilitas bahwa kita mungkin memiliki kesadaran dalam beberapa sistem-sistem [model bahasa besar] ini dalam jangka waktu satu dekade atau dua.”

MEMBACA  Cairan Terdeteksi di Konektor Petir? Inilah yang harus dilakukan sekarang