Pertemuan Mythos Keliru Fokus pada Risiko AI bagi Perbankan. Inilah Ancaman yang Terabaikan.

Menteri Keuangan Scott Bessent dan Ketua Federal Reserve Jay Powell baru-baru ini mengumpulkan para CEO bank besar di AS. Mereka bahas model terbaru Anthropic, Mythos. Pertemuan ini menunjukkan perubahan dalam cara orang pahami Artificial Intelligence (AI) di dunia keuangan. Ini bukan rapat tentang inovasi, tapi sebuah peringatan: model AI yang bisa cari dan manfaatkan kelemahan bisa jadi risiko serius untuk infrastruktur keuangan inti.

Kekhawatiran itu wajar. Tapi fokusnya masih terlalu sempit.

Dalam beberapa tahun terakhir, saya lihat di diskusi dengan lembaga keuangan terkemuka, kekhawatiran langsung naik ketika mereka paham penggunaan jahat AI. Tapi perubahan ke tindakan masih lambat dan tidak merata. Banyak perhatian saat ini fokus pada risiko siber. Ini ancaman serius. Tapi bukan satu-satunya dan bukan yang paling mendesak.

Selain risiko dari Mythos, ancaman paralel lain sudah terjadi dalam skala besar. Ini tidak tergantung pada model AI baru, tapi pada kemampuan AI yang sudah tersedia luas. Dan tidak seperti serangan siber yang butuh akses ke sistem, ancaman ini menyerang orang langsung.

Yang Berubah Bukan Hanya Kecanggihan — Tapi Ekonomi Biaya

AI sudah buat penipuan jadi jauh lebih murah, lebih mudah dilakukan, dan bisa skala besar. Yang dulu butuh waktu dan koordinasi, sekarang bisa otomatis dan dipakai skala industri. Sistem AI bisa buat ribuan pesan, suara, dan video yang meyakinkan dalam hitungan detik, dibuat khusus untuk satu orang. Ini bukan perubahan kecil. Ini perubahan struktur.

Penipuan sudah berubah dari aktivitas manual jadi aktivitas mesin. Kampanye social engineering yang sangat personal, sering didukung agen AI, sekarang beroperasi di banyak saluran, yurisdiksi, dan identitas. Mereka menyamar sebagai eksekutif, penasihat, atau anggota keluarga dengan kredibilitas tinggi, ciptakan rasa urgensi dan buat orang lakukan transfer yang sah.

MEMBACA  Jensen Huang dari Nvidia: Investasi AI US$700 Miliar Hanyalah Awal dari Era yang Lebih Besar

Dalam skenario ini, sistem tidak diretas. Sistem dilewati.

Sistemnya Tidak Diretas. Pelanggannya yang Diyakinkan.

Pelanggan tidak selalu diretas. Mereka diyakinkan. Dan karena transaksinya sah, pengamanan yang ada sering tidak efektif. Pemeriksaan biometrik bisa dikalahkan oleh deepfake. Pemantauan berbasis aturan disetel untuk deteksi penipu manusia, bukan jaringan terkoordinasi agen AI yang beroperasi dengan kecepatan mesin.

Ini menciptakan jenis risiko yang sangat berbeda.

Tidak seperti serangan siber yang cenderung episodik dan terlihat, penipuan berbasis AI beroperasi sebagai kebocoran dana yang terus-menerus dan tersebar di jutaan transaksi. Ini ancaman yang merayap: lebih mudah dilakukan, lebih cepat skalanya, dan sering tak terlihat sampai kerugiannya jadi besar. Trajektori ini mengarah ke kerugian triliunan dolar dalam tahun-tahun mendatang.

Risikonya Bukan Hanya Finansial

Jika publik mulai percaya bahwa lembaga keuangan tidak bisa lindungi pelanggan dari manipulasi dan penipuan, kepercayaan pada sistem akan terkikis. Konsekuensinya akan melampaui kerugian uang. Gesekan akan meningkat, pelanggan akan ragu-ragu, dan kepercayaan pada kemampuan bank jaga uang bisa melemah. Kerusakannya tidak kalah dari ancaman siber.

Ini bukan ancaman yang lebih besar dari risiko siber. Ini ancaman paralel. Dan ini pantas dapat perhatian yang sama.

Perlu Redesain Pertahanan, Bukan Perbaikan Kecil

Kebanyakan institusi masih bergantung pada data yang terfragmentasi, pemantauan jadul, dan analisis dipimpin manusia yang tidak bisa kejar ancaman AI yang adaptif. Respons yang berarti butuh redesain arsitektur: deteksi waktu-nyata yang asli-AI; integrasi sinyal penipuan, AML (Anti Pencucian Uang), dan perilaku; serta kemampuan untuk intervensi di titik transaksi, termasuk dalam pembayaran yang sah.

Ini juga butuh perpindahan dari pertahanan yang terisolasi ke terkoordinasi. Kampanye penipuan menargetkan pelanggan di berbagai institusi secara bersamaan, sementara kontrol tetap terpisah-pisah. Respons efektif tergantung pada identifikasi pola dan kampanye secara real-time. Pertimbangan privasi dan persaingan tetap penting, tapi tidak bisa lagi membenarkan titik buta struktural. Teknologi pelindung privasi tawarkan jalan keluar, memungkinkan institusi berbagi sinyal tanpa buka data sensitif.

MEMBACA  Potongan Pajak Jaminan Sosial Trump Bisa Berdampak Buruk bagi Generasi Mendatang dan Mempercepat Kebangkrutan Program pada 2032, Peringatan Penelitian

Secara paralel, institusi perlu adopsi pendekatan “AI Pertahanan”: gunakan AI untuk lawan ancaman berbasis AI. Garis pertahanan pertama yang hanya manusia tidak bisa berskala. Sistem asli-AI harus dukung deteksi dan respons lebih cepat di bawah pengawasan manusia.

Regulator Harus Bahas Ini Juga — Sebelum Bencana Tiba

Pelajaran dari momen Mythos bukan hanya bahwa AI bisa hancurkan sistem. Tapi bahwa sistem keuangan sudah dieksploitasi dengan cara lain: yang kurang terlihat, lebih mudah berskala, dan potensinya sama merusaknya.

Jika sistem keuangan tidak respons dengan cepat, konsekuensinya akan parah: kerugian meningkat, gesekan meningkat, dan erosi besar kepercayaan publik.

Regulator seharusnya juga mengumpulkan pemimpin keuangan senior untuk bahas isu ini, sebagai risiko AI paralel, sebelum bencana — yang sudah dalam jangkauan pelaku jahat — benar-benar terjadi. Sistem keuangan, sektor teknologi, dan pembuat kebijakan sekarang harus akui skala kerentanan ini dan bertindak dengan urgensi yang jauh lebih besar.

Pendapat yang diungkapkan dalam artikel komentar Fortune.com adalah pandangan penulisnya saja dan tidak selalu mencerminkan pendapat dan keyakinan Fortune.

Tinggalkan komentar