Studi Temukan: Agen AI Akan Menghadapi Batasan Matematika

Teknologi dasar di balik sebagian besar model kecerdasan artifisial yang tersedia secara luas adalah model bahasa besar (large language models/LLM), suatu bentuk pembelajaran mesin dan pemrosesan bahasa. Taruhan yang ditempatkan oleh sebagian besar perusahaan AI adalah bahwa LLM, jika diberi data yang cukup, akan mencapai sesuatu yang mirip dengan otonomi penuh untuk berpikir dan berfungsi dengan cara serupa manusia—namun dengan pengetahuan kolektif yang bahkan lebih besar. Ternyata, bertaruh pada pertumbuhan tanpa batas mungkin tidak memiliki peluang besar untuk berhasil. Sebuah studi baru mengklaim menunjukkan bukti matematis bahwa “LLM tidak mampu melaksanakan tugas komputasional dan agen di luar tingkat kompleksitas tertentu.”

Makalah yang diterbitkan oleh peneliti ayah dan anak, Vishal Sikka dan Varin Sikka, serta baru-baru ini diangkat oleh Wired setelah publikasi awalnya kurang mendapat perhatian, memiliki kesimpulan yang cukup sederhana, meskipun terdapat cukup banyak matematika rumit untuk mencapainya. Disarikan sesederhana mungkin, penelitian itu berargumen bahwa perintah atau tugas tertentu yang diberikan kepada sebuah LLM akan memerlukan komputasi yang lebih kompleks daripada yang mampu diproses model tersebut, dan ketika hal itu terjadi, model tersebut akan gagal menyelesaikan tindakan yang diminta atau akan melaksanakan tugas dengan tidak benar.

Premis dasar penelitian ini benar-benar memberikan kenyataan yang kurang menggembirakan bagi gagasan bahwa AI agenik—model yang dapat diberi tugas multi-tahap yang diselesaikan sepenuhnya secara mandiri tanpa pengawasan manusia—akan menjadi wahana untuk mencapai kecerdasan umum artifisial (AGI). Ini bukan berarti teknologi tersebut tidak memiliki fungsi atau tidak akan berkembang, namun memang menempatkan batas yang jauh lebih rendah pada apa yang mungkin dicapai dibandingkan dengan klaim perusahaan-perusahaan AI yang sering mengumbar narasi “langit adalah batasnya”.

MEMBACA  Ulasan Semua Smartwatch Garmin 2025: Rekomendasi Terbaik untuk Dipakai

Para peneliti ini bukanlah yang pertama mengisyaratkan bahwa LLM mungkin tidak sehebat yang digembar-gemborkan, meskipun penelitian mereka memang memberikan dasar matematis nyata bagi kecurigaan yang telah banyak diungkapkan oleh para skeptis AI. Tahun lalu, peneliti di Apple menerbitkan sebuah makalah yang menyimpulkan bahwa LLM tidak mampu bernalar atau berpikir secara aktual, meskipun menciptakan kesan seolah-olah melakukannya. Benjamin Riley, pendiri perusahaan Cognitive Resonance, menulis tahun lalu bahwa karena cara kerja LLM, mereka tidak akan pernah benar-benar mencapai apa yang kita anggap sebagai “kecerdasan”. Studi lain telah menguji batas-batas model AI berbasis LLM untuk melihat apakah mereka mampu menghasilkan keluaran kreatif yang benar-benar novel, dengan hasil yang cukup tidak menggemberikan.

Namun, jika semua itu tidak meyakinkan dan persamaan matematika yang rumit lebih sesuai dengan selera Anda, maka studi dari keluarga Sikka mungkin menjadi bukti yang Anda butuhkan. Semuanya merupakan bagian dari bukti yang semakin bertumpuk yang menunjukkan bahwa apa pun yang mungkin mampu dilakukan AI dalam bentuknya saat ini, hampir dapat dipastikan itu bukanlah teknologi yang akan melampaui kecerdasan manusia pada akhir tahun ini, seperti yang baru-baru ini diklaim oleh Elon Musk.

Tinggalkan komentar