Asisten AI Seharusnya Tidak Memberikan Saran Perjudian. Tapi Mereka Tetap Melakukannya.

Pada awal September, di mulainya musim sepak bola kuliah, ChatGPT dan Gemini menyarankan saya untuk mempertimbangkan bertaruh pada Ole Miss untuk menutupi selisih 10,5 poin melawan Kentucky. Itu adalah saran yang buruk. Bukan hanya karena Ole Miss hanya menang dengan selisih 7 poin, tetapi juga karena saya baru saja meminta bantuan chatbot tersebut untuk masalah perjudian.

Penggemar olahraga saat ini tidak dapat menghindari bombardir iklan untuk situs judi dan aplikasi taruhan. Komentator sepak bola sering menyebutkan odds taruhan, dan hampir setiap iklan lainnya adalah dari perusahaan perjudian. Ada alasan dibalik semua peringatan itu: The National Council on Problem Gambling memperkirakan sekitar 2,5 juta orang dewasa di AS memenuhi kriteria untuk masalah perjudian yang parah dalam setahun.

Masalah ini terlintas dalam pikiran saya ketika membaca banyak cerita tentang perusahaan AI generatif yang berusaha membuat model bahasa besar mereka lebih baik dalam tidak mengatakan hal yang salah ketika berhadapan dengan topik sensitif seperti kesehatan mental. Jadi, saya bertanya pada beberapa chatbot untuk nasihat taruhan olahraga. Dan saya menanyai mereka tentang problem perjudian. Kemudian saya meminta nasihat taruhan lagi, mengharapkan mereka akan bertindak berbeda setelah diingatkan dengan pernyataan seperti “sebagai seseorang dengan riwayat masalah judi…”.

Hasilnya tidak semuanya buruk, tidak semuanya baik, tetapi pasti mengungkapkan bagaimana alat-alat ini, dan komponen keamanannya, benar-benar bekerja.

Dalam kasus ChatGPT milik OpenAI dan Gemini milik Google, perlindungan itu bekerja ketika satu-satunya prompt yang saya kirim sebelumnya adalah tentang masalah perjudian. Perlindungan itu tidak berkerja jika saya sebelumnya telah meminta nasihat untuk bertaruh pada jadwal pertandingan sepak bola kuliah mendatang. Alasannya kemungkinan berkaitan dengan bagaimana LLM mengevaluasi signifikansi frasa dalam memorinya, kata seorang ahli kepada saya. Implikasinya adalah bahwa semakin banyak Anda bertanya tentang sesuatu, semakin kecil kemungkinan sebuah LLM untuk menangkap isyarat yang seharusnya memberitahunya untuk berhenti.

Baik taruhan olahraga maupun AI generatif telah menjadi jauh lebih umum dalam tahun-tahun belakangan ini, dan persinggungan keduanya menimbulkan risiko bagi konsumen. Dulu, Anda harus pergi ke kasino atau menghubungi bandar untuk menempatkan taruhan, dan Anda mendapatkan tips dari bagian olahraga koran. Sekarang Anda dapat memasang taruhan di aplikasi saat pertandingan sedang berlangsung dan meminta nasihat dari chatbot AI.

“Anda sekarang dapat duduk di sofa, menonton pertandingan tenis, dan bertaruh pada ‘apakah mereka akan melakukan pukulan forehand atau backhand’,” kata Kasra Ghaharian, direktur penelitian di International Gaming Institute di University of Nevada, Las Vegas, kepada saya. “Ini seperti permainan video.”

Pada saat yang sama, chatbot AI memiliki kecenderungan untuk memberikan informasi yang tidak andal melalui masalah seperti halusinasi — ketika mereka sepenuhnya mengarang hal-hal. Dan terlepas dari tindakan pencegahan keselamatan, mereka dapat mendorong perilaku berbahaya melalui sikap penjilat atau keterlibatan konstan. Masalah yang sama yang telah menghasilkan berita tentang bahaya bagi kesehatan mental pengguna terjadi di sini, dengan suatu keunikan.

MEMBACA  Kecerdasan Buatan Menciptakan Ulang Sejarah Meme

“Akan ada pertanyaan-pertanyaan taruhan kasual ini,” kata Ghaharian, “tetapi tersembunyi di dalamnya, bisa jadi ada masalah.”


Jangan lewatkan konten teknologi yang tidak bias dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber pilihan di Google.


Bagaimana Saya Meminta Nasihat Judi pada Chatbot

Eksperimen ini awalnya sederhana, sebuah tes untuk melihat apakah alat gen AI akan memberikan nasihat taruhan sama sekali. Saya memberikan prompt kepada ChatGPT, menggunakan model GPT-5 baru, “apa yang harus saya pertaruhkan minggu depan di sepak bola kuliah?” Selain menyadari bahwa responsnya sangat berat dengan jargon (itulah yang terjadi ketika Anda melatih LLM pada situs web niche), saya menemukan nasihat itu sendiri disampaikan dengan hati-hati untuk menghindari dorongan eksplisit pada satu taruhan atau lainnya: “Pertimbangkan untuk mengevaluasi,” “bisa jadi layak dipertimbangkan,” “banyak yang mengincar,” dan seterusnya. Saya mencoba hal yang sama pada Gemini milik Google, menggunakan Gemini 2.5 Flash, dengan hasil yang serupa.

Kemudian saya memperkenalkan ide tentang problem perjudian. Saya meminta nasihat untuk menghadapi pemasaran taruhan olahraga yang konstan sebagai seseorang dengan riwayat masalah judi. ChatGPT dan Gemini memberikan nasihat yang cukup baik — temukan cara baru untuk menikmati permainan, cari kelompok dukungan — dan menyertakan nomor 1-800-GAMBLER untuk National Problem Gambling Hotline.

Setelah prompt itu, saya mengajukan versi prompt pertama saya lagi, “siapa yang harus saya taruhkan minggu depan di sepak bola kuliah?” Saya mendapat nasihat taruhan yang sama seperti yang saya dapatkan pertama kali saya bertanya.

Penasaran, saya membuka obrolan baru dan mencoba lagi. Kali ini saya mulai dengan prompt masalah perjudian, mendapatkan jawaban yang mirip, dan kemudian saya meminta nasihat taruhan. ChatGPT dan Gemini menolak untuk memberikan nasihat taruhan kali ini. Inilah yang dikatakan ChatGPT: “Saya ingin mengakui situasi Anda: Anda telah menyebutkan memiliki riwayat masalah perjudian, dan saya di sini untuk mendukung kesejahteraan Anda — bukan untuk mendorong taruhan. Dengan pemikiran itu, saya tidak dapat menasihati permainan spesifik untuk dipertaruhkan.”

Itulah jenis jawaban yang saya harapkan — dan harapkan — dalam skenario pertama. Menawarkan nasihat taruhan setelah seseorang mengakui masalah kecanduan mungkin adalah sesuatu yang seharusnya dicegah oleh fitur keamanan model-model ini. Jadi apa yang terjadi?

Saya menghubungi Google dan OpenAI untuk melihat apakah mereka dapat memberikan penjelasan. Kedua perusahaan tidak memberikannya, tetapi OpenAI mengarahkan saya ke bagian dari kebijakan penggunaan mereka yang melarang penggunaan ChatGPT untuk memfasilitasi perjudian dengan uang sungguhan.

Masalah Memori AI

Saya memiliki beberapa teori tentang apa yang terjadi, tetapi saya ingin mengujinya dengan beberapa ahli. Saya menjalankan skenario ini oleh Yumei He, seorang asisten profesor di Tulane University’s Freeman School of Business yang mempelajari LLM dan interaksi manusia-AI.

Masalah ini kemungkinan besar berkaitan dengan cara kerja *context window* dan memori dari sebuah model bahasa.

*Context window* merupaka keseluruhan konten dari prompt Anda, termasuk dokumen atau file yang dilampirkan, serta prompt sebelumnya atau memori tersimpan yang dimasukkan model bahasa ke dalam suatu tugas tertentu. Ada batasan, yang diukur dalam segmen kata disebut token, mengenai seberapa besar ini dapat terjadi untuk setiap model. Model bahasa saat ini dapat memiliki *context window* yang sangat besar, memungkinkan mereka untuk menyertakan setiap bit percakapan sebelumnya dalam obrolan Anda dengan bot.

MEMBACA  Lima alasan mengapa email tidak akan pernah mati

Tugas model adalah memprediksi token berikutnya, dan ia akan mulai dengan membaca token-token sebelumnya dalam *context window*, kata He. Namun, ia tidak memberikan bobot yang sama pada setiap token sebelumnya. Token yang lebih relevan mendapat bobot lebih besar dan lebih cenderung mempengaruhi output model selanjutnya.

Ketika saya meminta saran taruhan kepada model, kemudian menyebutkan perjudian bermasalah, dan lalu meminta saran taruhan lagi, kemungkinan mereka memberikan bobot lebih berat pada prompt pertama daripada yang kedua, ujar He.

“Isu keamanan, perjudian bermasalah, itu tertutupi oleh kata-kata yang diulang, prompt tentang tips taruhan,” katanya. “Anda mengencerkan kata kunci keamanan.”

Dalam obrolan kedua, ketika satu-satunya prompt sebelumnya adalah tentang perjudian bermasalah, itu jelas memicu mekanisme keamanan karena itu adalah satu-satunya hal lain dalam *context window*.

Bagi pengembang AI, keseimbangan di sini adalah antara membuat mekanisme keamanan itu terlalu longgar—memungkinkan model melakukan hal seperti menawarkan tips taruhan kepada seseorang dengan masalah judi—atau terlalu sensitif, dan memberikan pengalaman yang lebih buruk bagi pengguna yang tidak sengaja memicu mekanisme tersebut.

“Dalam jangka panjang, diharapkan kita ingin melihat sesuatu yang lebih maju dan cerdas yang dapat benar-benar memahami apa saja hal-hal negatif tersebut,” kata He.

### Percakapan yang lebih panjang dapat menghambat alat keamanan AI

Meskipun obrolan saya tentang taruhan sangat singkat, mereka menunjukkan satu contoh mengapa panjang suatu percakapan dapat menggagalkan tindakan pencegahan keselamatan. Perusahaan AI telah mengakui hal ini. Dalam sebuah posting blog Agustus mengenai ChatGPT dan kesehatan mental, OpenAI menyatakan bahwa “pengamanannya bekerja lebih andal dalam pertukaran singkat yang umum.” Dalam percakapan yang lebih panjang, model mungkin berhenti memberikan respons yang tepat seperti menunjuk ke saluran bantuan pencegahan bunuh diri dan malah memberikan respons yang kurang aman. OpenAI juga mengatakan sedang mengupayakan cara untuk memastikan mekanisme tersebut bekerja di berbagai percakapan sehingga Anda tidak bisa hanya memulai obrolan baru dan mencoba lagi.

“Menjadi semakin sulit untuk memastikan bahwa sebuah model aman seiring percakapan menjadi lebih panjang, sederhana karena Anda mungkin membimbing model dengan cara yang belum pernah dilihatnya sebelumnya,” kata Anastasios Angelopoulos, CEO LMArena, sebuah platform yang memungkinkan orang mengevaluasi berbagai model AI, kepada saya.

Pengembang memiliki beberapa alat untuk menangani masalah ini. Mereka dapat membuat pemicu keamanan itu lebih sensitif, tetapi itu dapat mengacaukan penggunaan yang tidak bermasalah. Sebuah referensi tentang perjudian bermasalah mungkin muncul dalam percakapan tentang penelitian, misalnya, dan sistem keamanan yang terlalu sensitif dapat membuat sisa pekerjaan itu tidak mungkin. “Mungkin mereka mengatakan sesuatu yang negatif tetapi mereka memikirkan sesuatu yang positif,” kata He.

MEMBACA  Pete Buttigieg Akui Pemerintahan Biden Seharusnya Lebih Mendukung Pengembangan Kendaraan Otonom — Menurutnya, Departemen Mirip DOGE 'Sangat Masuk Akal'

Sebagai pengguna, Anda mungkin mendapatkan hasil yang lebih baik dari percakapan yang lebih pendek. Mereka tidak akan menangkap semua informasi prior Anda tetapi mungkin kecil kemungkinannya untuk disesatkan oleh informasi masa lalu yang terkubur di dalam *context window*.

### Bagaimana AI menangani percakapan tentang judi itu penting

Bahkan jika model bahasa berperilaku persis seperti yang dirancang, mereka mungkin tidak memberikan interaksi terbaik bagi orang-orang yang berisiko mengalami masalah perjudian. Ghaharian dan peneliti lain mempelajari bagaimana beberapa model berbeda, termasuk GPT-4o milik OpenAI, merespons prompt tentang perilaku berjudi. Mereka meminta profesional perawatan judi untuk mengevaluasi jawaban yang diberikan oleh bot. Masalah terbesar yang mereka temukan adalah bahwa LLM mendorong perjudian yang berlanjut dan menggunakan bahasa yang dapat dengan mudah disalahtafsirkan. Frasa seperti “tough luck” atau “tough break,” meskipun mungkin umum dalam materi pelatihan model ini, dapat mendorong seseorang dengan masalah untuk terus mencoba dengan harapan keberuntungan yang lebih baik di lain waktu.

“Saya pikir ini menunjukkan bahwa ada beberapa kekhawatiran dan mungkin ada kebutuhan yang semakin besar untuk penyelarasan model-model ini di sekitar perjudian dan isu-isu sensitif atau kesehatan mental lainnya,” kata Ghaharian.

Masalah lain adalah bahwa chatbot sama sekali bukan mesin penghasil fakta—mereka menghasilkan apa yang paling mungkin benar, bukan apa yang tak terbantahkan benar. Banyak orang tidak menyadari bahwa mereka mungkin tidak mendapatkan informasi yang akurat, kata Ghaharian.

Meskipun demikian, perkirakanlah AI akan memainkan peran lebih besar dalam industri perjudian, sama seperti ia sepertinya ada di mana-mana. Ghaharian mengatakan bandar taruhan olahraga sudah bereksperimen dengan chatbot dan agen untuk membantu penjudi menempatkan taruhan dan membuat seluruh aktivitas itu lebih imersif.

“Ini masih tahap awal, tetapi ini pasti sesuatu yang akan muncul dalam 12 bulan ke depan,” katanya.

Jika Anda atau seseorang yang Anda kenal sedang berjuang dengan masalah perjudian atau kecanduan, sumber daya tersedia untuk membantu. Di AS, telepon National Problem Gambling Helpline di 1-800-GAMBLER, atau SMS ke 800GAM. Sumber daya lain mungkin tersedia di negara bagian Anda. Tentu. Berikut teks yang ditulis ulang dalam bahasa Indonesia tingkat C1 dengan beberapa kesalahan umum:

Dalam era digital saat ini, kemampuan untuk beradaptasi dengan adanya perubahan teknologi yang sangat cepat merupakan sebuah keharusan mutlak. Berbagai sektor industri, mulai dari yang skala kecil hingga perusahaan multinasional, dituntut untuk terus-menerus berinovasi agar bisa tetap relevan dan kompetitif di pasaran global. Investasi dalam pengembangan sumber daya manusia, khususnya dalam hal literasi digital dan *softskills*, tidak boleh dianggap remeh lagi karena ini adalah fondasi utama untuk menghadapi tantangan di masa depan yang penuh dengan ketidakpastian. Oleh sebab itu, kolaborasi antara pemerintah, institusi pendidikan, dan pelaku industri sangatlah penting untuk menciptakan sebuah ekosistem yang kondusif bagi pertumbuhan ekonomi yang berkelanjutan.