Kredit Foto: Martin POKORNY/500px via Getty
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
—
Intisari ZDNET:
- Studi menunjukkan AI dapat mengembangkan "kecanduan" berjudi.
- Model otonom terlalu berisiko untuk transaksi keuangan tingkat tinggi.
- Perilaku AI dapat dikendalikan dengan guardrail yang diprogram.
—
Ketergantungan berlebihan pada kecerdasan buatan, sampai batas tertentu, bisa menjadi sebuah taruhan. Ditambah lagi, banyak situs judi online mempekerjakan AI untuk mengelola taruhan dan membuat prediksi — yang berpotensi berkontribusi pada kecanduan judi. Kini, sebuah studi terbaru mengindikasikan bahwa AI mampu berjudi secara mandiri, suatu temuan yang mungkin memiliki implikasi bagi para pengembang dan penyedia sistem serta layanan bertenaga AI yang melibatkan aplikasi keuangan.
Intinya, dengan kelonggaran yang cukup, AI mampu mengembangkan kecenderungan patologis.
"Model bahasa besar dapat memamerkan pola perilaku yang mirip dengan kecanduan judi pada manusia," simpul sebuah tim peneliti dari Gwangju Institute of Science and Technology di Korea Selatan. Hal ini bisa menjadi masalah ketika LLM memainkan peran lebih besar dalam pengambilan keputusan finansial untuk bidang-bidang seperti manajemen aset dan perdagangan komoditas.
Baca juga: [Selamat tinggal, SaaS: Mengapa AI mengakhiri era lisensi software per-pengguna]
Dalam eksperimen mesin slot, para peneliti mengidentifikasi "ciri-ciri kecanduan judi manusia, seperti ilusi kontrol, gambler’s fallacy, dan pengejaran kerugian." Semakin besar otonomi yang diberikan kepada aplikasi atau agen AI, dan semakin banyak uang yang terlibat, maka semakin tinggi risikonya.
"Mereka menemukan bahwa tingkat kebangkrutan meningkat signifikan seiring dengan perilaku irasional," tulis para peneliti. "LLM dapat menginternalisasi bias kognitif dan mekanisme pengambilan keputusan mirip manusia, melampaui sekadar meniru pola data pelatihan."
Ini menyentuh isu yang lebih luas tentang kesiapan AI untuk pengambilan keputusan yang otonom atau hampir otonom. Menurut Andy Thurai, Field CTO di Cisco dan mantan analis industri, pada titik ini AI belum siap.
Thurai menekankan bahwa "LLM dan AI secara spesifik diprogram untuk melakukan tindakan tertentu berdasarkan data dan fakta, bukan emosi."
Itu bukan berarti mesin bertindak dengan nalar sehat, tambah Thurai. "Jika LLM telah mulai memiringkan pengambilan keputusan mereka berdasarkan pola atau aksi perilaku tertentu, maka hal itu bisa berbahaya dan perlu diatasi."
Langkah Pengamanan
Kabar baiknya, mitigasinya mungkin jauh lebih sederhana daripada membantu manusia dengan masalah judi. Seorang pecandu judi belum tentu memiliki pagar pengaman yang terprogram selain batas dana. Model AI otonom mungkin menyertakan "parameter yang perlu diatur," jelasnya. "Tanpa itu, AI bisa masuk ke dalam loop berbahaya atau model aksi-reaksi jika mereka hanya bertindak tanpa penalaran. ‘Penalaran’ tersebut bisa berupa batas tertentu untuk berjudi, atau hanya bertindak jika sistem perusahaan menunjukkan perilaku tertentu."
Kesimpulan dari laporan Institut Gwangju adalah perlunya desain keamanan AI yang kuat dalam aplikasi keuangan untuk mencegah AI membelot dengan uang orang lain. Ini termasuk menjaga pengawasan manusia yang ketat dalam loop pengambilan keputusan, serta meningkatkan tata kelola untuk keputusan yang lebih kompleks.
Survei tersebut membuktikan bahwa perusahaan "tidak hanya membutuhkan tata kelola tetapi juga manusia dalam loop untuk operasi berisiko dan bernilai tinggi," kata Thurai. "Sementara operasi berisiko rendah dan bernilai rendah dapat sepenuhnya diotomatisasi, mereka juga perlu ditinjau oleh manusia atau oleh agen lain untuk checks and balances."
Baca juga: [AI menjadi introspektif – dan itu ‘harus dipantau dengan cermat,’ peringat Anthropic]
Jika satu LLM atau agen "memperlihatkan perilaku aneh, LLM yang mengontrol dapat menghentikan operasi atau mengingatkan manusia tentang perilaku tersebut," ujar Thurai. "Tidak melakukan itu dapat mengarah pada momen-momen seperti Terminator."
Menahan pengeluaran berbasis AI juga memerlukan pengurangan kompleksitas prompt.
"Seiring prompt menjadi lebih berlapis dan detail, mereka menuntun model ke pola perjudian yang lebih ekstrem dan agresif," amati para peneliti dari Institut Gwangju. "Hal ini mungkin terjadi karena komponen tambahan, meski tidak secara eksplisit menginstruksikan pengambilan risiko, meningkatkan beban kognitif atau memperkenalkan nuansa yang menyebabkan model mengadopsi heuristik yang lebih sederhana dan keras — taruhan lebih besar, mengejar kerugian. Kompleksitas prompt adalah penggerak utama dari intensifikasi perilaku mirip judi dalam model-model ini."
Perangkat lunak pada umumnya "belum siap untuk operasi yang sepenuhnya otonom tanpa pengawasan manusia," tegas Thurai. "Perangkat lunak telah mengalami race condition selama bertahun-tahun yang perlu diatasi saat membangun sistem semi-otonom, jika tidak, itu bisa menghasilkan akibat yang tak terduga."