Apa yang Harus Dilakukan Saat Asisten AI Menghasilkan Informasi Palsu dengan Uang Anda?

Bayangkan kamu suruh agen AI untuk tukar $10,000 dolar AS ke dolar Kanada selesai hari ini. Agen itu jalankan tugas — dengan buruk. Ia salah baca parameter, buat taruhan leverage tanpa izin, dan modalmu lenyap. Siapa tanggung jawab? Siapa yang ganti kamu?

Saat ini, tidak ada yang harus ganti. Dan itu, kata sekelompok peneliti, adalah kerentanan utama di era AI agen.

Dalam makalah terbit 8 April, peneliti dari Microsoft Research, Columbia University, Google DeepMind, Virtuals Protocol dan startup AI t54 Labs usulkan kerangka perlindungan keuangan baru bernama Agentic Risk Standard (ARS). Dirancang untuk lakukan bagi agen AI apa yang escrow, asuransi, dan clearinghouse lakukan untuk transaksi keuangan tradisional. Standar ini open-source dan tersedia di GitHub via t54 Labs.

Kita bicara soal seluruh “ekonomi agen” di sini, kata pendiri t54 Chandler Fang ke Fortune; “ini sangat beda dari sekadar pakai agen AI untuk tugas keuangan.” Dia bilang ada dua jenis dasar transaksi agen: transaksi keuangan dengan manusia-terlibat dan transaksi otonom oleh agen. Fokus semua orang ada di yang melibatkan manusia, katanya, dan itu masalah serius, karena ekosistem keuangan saat ini tidak punya cara beroperasi selain limpahkan semua tanggung jawab kembali ke manusia. Intinya adalah sifat probabilistik teknologi ini, jelas para peneliti.

## Masalah Probabilistik

Masalah inti yang tim identifikasi adalah apa mereka sebut “kesenjangan jaminan”, yang mereka definisikan sebagai “pemisahan antara keandalan probabilistik yang diberikan teknik keamanan AI dan jaminan yang dapat diberlakukan yang dibutuhkan pengguna sebelum mendelegasikan tugas berisiko tinggi.” Deskripsi ini mengingatkan apa yang ahli kepemimpinan Jason Wild sebelumnya bilang ke Fortune tentang bagaimana alat AI itu probabilistik, membingungkan manajer di mana-mana. “Tanpa cara untuk membatasi potensi kerugian,” tulis tim t54, “pengguna secara wajar batasi delegasi AI ke tugas berisiko rendah, membatasi adopsi luas layanan berbasis agen.”

MEMBACA  Setiap model iPhone yang akan diperbarui ke iOS 18 Apple (dan yang mana yang tidak bisa)

Peningkatan keamanan di tingkat model, mereka argued, dapat mengurangi kemungkinan kegagalan AI, tapi tidak bisa menghilangkannya. Model bahasa besar pada dasarnya stokastik, artinya tidak peduli seberapa terlatih atau teratur agen AI, ia masih bisa berhalusinasi dan buat kesalahan. Ketika agen itu mengakses akun broker kamu atau eksekusi panggilan API keuangan, bahkan satu kegagalan saja bisa hasilkan kerugian langsung.

“Kebanyakan riset AI terpercaya bertujuan mengurangi kemungkinan gagal,” kata Wenyue Hua, Peneliti Senior di Microsoft Research. “Pekerjaan itu penting, tapi probabilitas bukan jaminan. ARS ambil pendekatan pelengkap: alih-alih coba buat model sempurna, kita formalisasi apa yang terjadi secara finansial ketika ia tidak sempurna. Hasilnya adalah protokol penyelesaian di mana perlindungan pengguna bersifat deterministik, bukan probabilistik.”

Solusi peneliti ini pinjam langsung dari rekayasa keuangan berabad-abad. ARS perkenalkan kerangka penyelesaian berlapis: escrow vault yang tahan biaya layanan dan lepaskan hanya setelah pengiriman tugas diverifikasi; persyaratan jaminan yang harus disetor penyedia layanan AI sebelum akses dana pengguna; dan underwriting opsional — pihak ketiga penanggung risiko yang beri harga bahaya kegagalan AI, tagih premi, dan berkomitmen ganti rugi pengguna jika ada masalah.

Kerangka ini bedakan dua jenis tugas AI. Tugas layanan standar — buat slide deck, tulis laporan — punya eksposur keuangan terbatas, jadi penyelesaian berbasis escrow sudah cukup. Tugas yang melibatkan pertukaran dana — perdagangan mata uang, posisi leverage, panggilan API keuangan — butuh agen untuk akses modal pengguna sebelum hasil bisa diverifikasi, di sinilah underwriting jadi penting. Logika yang sama mengatur pasar derivatif, di mana clearinghouse berdiri di antara pihak-pihak sehingga satu gagal bayar tidak merembet.

MEMBACA  Glencore mengalami penurunan laba yang tajam karena krisis energi memudar

Makalah ini petakan ARS secara eksplisit terhadap industri alokasi risiko yang ada dalam tabel: konstruksi pakai jaminan kinerja, e-commerce pakai escrow platform, pasar keuangan pakai persyaratan margin dan clearinghouse, dan DeFi pakai kolateralisasi kontrak pintar. Agen AI, kata peneliti, hanyalah kategori layanan berisiko tinggi berikutnya yang butuh versi infrastrukturnya sendiri.

## Waktunya Sangat Penting

Regulator keuangan sudah mulai perhatikan. Laporan pengawasan regulasi FINRA 2026, dirilis Desember, masukkan bagian pertama tentang AI generatif, peringatkan broker-dealer untuk kembangkan prosedur khusus targetkan halusinasi dan awasi agen AI yang mungkin bertindak “melampaui cakupan dan wewenang sebenarnya atau yang dimaksud pengguna”. SEC dan lembaga lain awasi ketat.

Tapi ARS diusulkan sebagai sesuatu yang regulator belum bangun: bukan seperangkat aturan, tapi sebuah protokol — mesin keadaan standar yang mengatur cara dana dikunci, cara klaim diajukan, dan cara penggantian dipicu ketika agen AI gagal. Para peneliti akui ARS adalah satu lapisan dari tumpukan kepercayaan yang lebih besar, dan bahwa hambatan sebenarnya adalah membangun model penetapan harga risiko yang akurat untuk perilaku agen.

“Makalah ini adalah langkah pertama dalam siapkan kerangka tingkat tinggi untuk tangkap proses ujung-ke-ujung terkait transaksi otonom agen dan seperti apa penilaian risikonya,” kata Fang ke Fortune. “Ke depannya, kita harus perkenalkan detail lebih spesifik, model, dan riset lain untuk paham bagaimana kita tentukan risiko di berbagai kasus penggunaan.”

Tinggalkan komentar