Ilmuwan AWS: Strategi AI Anda Memerlukan Logika Matematika

Hallusinasi itu sebenarnya dasar cara kerja model bahasa berbasis transformer. Malahan, ini adalah aset terbesar mereka: ini metode dimana model bahasa menemukan hubungan antara konsep-konsep yang kadang tidak berhubungan. Tapi halusinasi bisa jadi kutukan ketika model bahasa dipakai di bidang yang butuh kebenaran. Contohnya dari pertanyaan tentang kebijakan kesehatan, sampai kode yang harus benar pakai API pihak ketiga. Dengan AI agen, risikonya lebih tinggi lagi, karena bot otonom bisa melakukan aksi yang tidak bisa dibatalkan—seperti kirim uang—atas nama kita.

Kabar baiknya, kita punya metode untuk membuat sistem AI ikut aturan, dan mesin-mesin pendukung alat itu juga berkembang sangat pesat tiap tahun. Cabang AI ini namanya automated reasoning (atau AI simbolik) yang secara simbolik mencari bukti dalam logika matematika untuk nalar tentang benar dan salah yang mengikuti kebijakan yang didefinisikan secara aksiomatik.

Penting untuk mengerti bahwa kita tidak bicara tentang probabilitas atau tebakan terbaik. Melainkan, ini tentang pembuktian ketat yang ditemukan dalam logika matematika lewat pencarian algoritmik. AI simbolik menggunakan dasar yang awalnya diletakkan oleh pendahulu seperti Aristoteles, Bool, dan Frege—dan dikembangkan di zaman modern oleh pikiran-pikiran hebat seperti Claude Shannon dan Alan Turing.

Automated reasoning bukan cuma teori: nyatanya, dia sudah banyak diadopsi industri

Di tahun 1990an, ini dimulai dengan pembuktian sirkuit tingkat rendah karena respons terhadap bug FDIV. Lalu, dipakai dalam sistem keselamatan kritis yang digunakan oleh Airbus dan NASA. Sekarang, semakin banyak dipasang dalam contoh-contoh AI neurosimbolik. Leibniz AI, contohnya, menerapkan penalaran formal dalam AI untuk domain hukum, sementara Atalanta menerapkan ide yang sama untuk masalah di kontrak pemerintah, dan sistem AlphaProof dari Deepmind tidak menghasilkan argumen palsu dalam matematika karena menggunakan pembuktian teorema Lean.

MEMBACA  Jika Anda Menanamkan $1.000 di Solana 5 Tahun Lalu, Inilah Jumlahnya Hari Ini

Masih banyak lagi: CodeLogician dari Imanda tidak izinkan program disintesis yang bisa langgar aturan penggunaan API karena mereka juga pakai alat automated reasoning. Fitur Automated Reasoning dari Amazon di Bedrock Guardrails menyaring pernyataan benar dari yang tidak benar menggunakan automated reasoning bersama formalisasi aksiomatik yang bisa didefinisikan pelanggan. Untuk organisasi yang ingin tambah pekerjaan mereka dengan AI tapi tetap percaya dengan hasilnya, kemampuan deduksi logis dari alat automated reasoning bisa dipakai untuk pastikan interaksi tetap dalam batasan dan aturan yang ditentukan.

Fitur kunci automated reasoning adalah dia mengakui “Saya tidak tahu” ketika tidak bisa membuktikan jawaban valid, bukannya membuat-buat informasi. Dalam banyak kasus, alatnya juga bisa tunjukkan logika yang bertentangan yang membuatnya tidak bisa membuktikan atau menyangkal sebuah pernyataan dengan pasti, dan menunjukkan alasan di balik keputusannya.

Alat automated reasoning juga biasanya murah untuk dijalankan, terutama dibandingkan alat berbasis transformer yang butuh banyak daya. Alasannya adalah alat automated reasoning hanya beroperasi secara simbolik tentang apa yang benar dan salah. Mereka tidak “menghitung angka”, dan tidak ada perkalian matriks di GPU. Untuk lihat kenapa, pikirkan masalah seperti “mencari nilai x” dari pelajaran matematika kamu di sekolah. Ketika kita tulis ulang x+y jadi y+x, atau x(y+z) jadi xy + xz, kita sedang bernalar tentang hal tak terbatas hanya dengan beberapa langkah sederhana. Langkah-langkah ini mudah dilakukan dalam milidetik di komputer.

Memang benar penerapan logika matematika bukan solusi universal untuk semua masalah di AI. Contohnya, kita akan ragu dengan aksiomatisasi tentang apa yang membuat lagu atau puisi “bagus”. Kami juga akan pertanyakan alat yang klaim bisa buktikan dalam logika matematika bahwa pemanas rumah kita tidak akan rusak. Tapi dalam aplikasi dimana kita bisa definisikan secara aksiomatik pernyataan benar dan salah dalam domain tertentu (misalnya, kelayakan untuk Undang-Undang Cuti Medis Keluarga atau penggunaan yang benar dari pustaka perangkat lunak), pendekatan ini menawarkan cara praktis untuk pasang AI dengan aman di area bisnis-kritis dimana akurasi itu paling penting.

MEMBACA  Bagaimana AI Membuat Saya Menjadi Pemimpin Bisnis yang Lebih Manusiawi: Perspektif seorang CEO

Memulai

Walaupun alat automated reasoning dulu butuh keahlian matematika yang dalam untuk digunakan, kekuatan generative AI yang tumbuh membuatnya semakin bisa diakses audiens yang lebih luas dimana pengguna bisa ekspresikan aturan dalam bahasa alami dan verifikasi otomatis output AI terhadap aturan itu. Nyatanya: banyak model bahasa dilatih dari output alat automated reasoning (sering dikombinasi dengan reinforcement learning). Kuncinya adalah mulai dengan kasus penggunaan yang jelas yang bisa didefinisikan dengan tepat—pikirkan hal-hal seperti coding, kebijakan HR, dan hukum pajak. Ini juga berlaku di area dimana verifikasi sangat penting seperti keamanan, kepatuhan, dan infrastruktur cloud.

Melihat ke depan

Saat kita berusaha integrasikan AI lebih dalam ke hidup kita, kemampuan untuk verifikasi kebenaran dan kejujuran dari aksi dan output mereka akan jadi semakin kritis. Organisasi yang invest di kemampuan automated reasoning sekarang akan lebih siap untuk skalakan AI dan adopsi agen dengan aman sambil jaga kontrol dan kepatuhan. Dalam rapat strategi AI kamu berikutnya, pertimbangkan automated reasoning. Itu bisa jadi kunci untuk pasang AI dengan percaya diri di seluruh organisasi kamu dan untuk pelanggan kamu.

Pendapat yang diungkapkan dalam tulisan komentator Fortune.com adalah hanya pandangan penulisnya dan tidak selalu mencerminkan opini dan keyakinan Fortune.

Fortune Global Forum kembali 26–27 Okt. 2025 di Riyadh. CEO dan pemimpin global akan berkumpul untuk acara dinamis hanya dengan undangan yang membentuk masa depan bisnis. Ajukan permohonan undangan.