Mungkinkah AI Berpikir Seperti Manusia? Kita Masih Jauh dari Itu – dan Pertanyaannya Salah

Westend61/Getty Images

Kecerdasan buatan mungkin punya kemampuan inferensi yang mengesankan, tapi jangan berharap ia memiliki daya nalar setara manusia dalam waktu dekat. Perjalanan menuju artificial general intelligence (AGI)—yaitu AI yang bisa menerapkan logika dalam berbagai tugas atau lingkungan seperti manusia—masih sangat jauh. Large reasoning models (LRMs), meski belum sempurna, menawarkan langkah awal ke arah tersebut.

Singkatnya, jangan harap robot layanan makananmu bisa bereaksi tepat saat ada kebakaran di dapur atau hewan peliharaan melompat ke meja dan mencuri makanan.

Mimikri, Bukan Kognisi Sejati

Mimpi besar AI adalah berpikir dan bernalar semirip mungkin dengan manusia—namun pemimpin industri dan pakar sepakat bahwa kita masih jauh dari titik itu. Large language models (LLMs) dan turunannya yang lebih maju, LRMs, bekerja dengan analitik prediktif berbasis pola data, bukan penalaran kompleks ala manusia.

Meski begitu, hype seputar AGI dan LRMs terus tumbuh—dan wajar jika harapan melampaui teknologi yang ada.

"Kita sedang terjebak dalam ‘teater kesuksesan AI’," kata Robert Blumofe, CTO Akamai. "Ada ilusi kemajuan lewat demo heboh atau klaim berlebihan. Padahal, AI yang benar-benar cerdas masih jauh dari kenyataan."

Sebuah paper terbaru dari peneliti Apple meragukan kesiapan LRMs. Mereka menyimpulkan bahwa LRMs saat ini tidak jauh lebih unggul dibanding LLMs biasa.

Batasan & Potensi LRMs

LRM bekerja dengan chain-of-thought (alur pemikiran bertahap), tapi "ini bukan kognisi asli, hanya tiruan," jelas Ivana Bartoletti dari Wipro. "Teknik ini mungkin akan membaik, tapi kita harus pahami limitasinya sekarang."

Menurut Xuedong Huang (CTO Zoom), LRM saat ini hanya mengoptimalkan jawaban akhir, bukan proses penalarannya—sehingga langkah intermediat sering keliru. Sementara Blumofe menegaskan: "LLMs/LRMs mesin prediksi, bukan pemecah masalah. Masa depan penalaran AI butuh arsitektur baru yang menggabungkan alat tradisional dengan data pengguna."

Aplikasi Nyata & Tantangan

Di perusahaan, LRMs awal mungkin dipakai di contact center atau pekerjaan pengetahuan dasar. Tapi, "implementasinya penuh masalah subjektif," ujar Daniel Hoske (CTO Cresta). Misal: troubleshooting teknis atau merencanakan tugas multi-tahap dengan informasi tidak lengkap.

MEMBACA  Dua Perempuan Tewas Saat Berusaha Menyeberangi Selat Inggris dari Prancis ke Britania

"LRMs unggul di bidang terverifikasi tapi sulit bagi manusia—seperti koding, QA kompleks, atau perencanaan formal," tambah Huang. Petros Efstathopoulos (RSA Conference) menambahkan, LRMs juga menjanjikan di riset medis dan analisis data.

Namun, kepercayaan pada hasil LRMs masih problematik. "AI harus bisa bernalar secara konsisten untuk tugas kritis, bukan hanya hal remeh," tegas Caiming Xiong (Salesforce).

Bukan untuk Meniru, Tapi Melengkapi

"Kita tak butuh AI yang berpikir seperti manusia—tapi yang bisa berpikir bersama kita," kata Huang. "Kognisi manusia penuh bias. Tujuannya adalah utilitas, bukan imitasi."

Tujuan akhir LRMs dan AGI adalah menciptakan AI yang transparan, andal dalam batas kemampuannya, dan dirancang untuk melengkapi—bukan menggantikan—kecerdasan manusia.

Butuh cerita AI lebih banyak? Daftar newsletter Innovation.

(typo: "intermediat" seharusnya "intermediate", "problematik" seharusnya "problematis")