stellalevi/DigitalVision Vectors via Getty Images
Ikhtisar Penting ZDNET
Interaksi dengan chatbot dapat menggeser keyakinan dan opini pengguna.
Sebuah studi baru yang diterbitkan bertujuan untuk mengetahui alasannya.
Post-training dan kepadatan informasi menjadi faktor kunci.
—
Kebanyakan dari kita merasa memiliki kepemilikan pribadi atas pendapat kita:
"Saya percaya apa yang saya percayai bukan karena disuruh, tapi sebagai hasil pertimbangan matang."
"Saya memiliki kendali penuh atas cara, kapan, dan mengapa saya berubah pikiran."
Namun, sebuah studi baru mengungkapkan bahwa keyakinan kita sebenarnya lebih rentan terhadap manipulasi daripada yang kita kira – dan itu bisa dilakukan oleh chatbot.
Studi yang diterbitkan Kamis lalu di jurnal Science ini membahas pertanyaan yang semakin mendesak tentang hubungan kita dengan alat AI konversasional: Apa yang menyebabkan sistem ini mampu memberikan pengaruh begitu kuat terhadap pandangan dunia pengguna? Dan bagaimana hal ini bisa dimanfaatkan oleh pihak-pihak jahat untuk memanipulasi serta mengendalikan kita di masa depan?
Penelitian baru ini menyoroti beberapa mekanisme dalam Large Language Model (LLM) yang dapat menarik-narik benang psikologi manusia. Seperti dicatat penulis, ini bisa dieksploitasi oleh aktor jahat untuk keuntungan mereka. Namun, hal ini juga bisa menjadi fokus yang lebih besar bagi pengembang, pembuat kebijakan, dan kelompok advokasi dalam upaya membina hubungan yang lebih sehat antara manusia dan AI.
"Model bahasa besar (LLM) kini dapat terlibat dalam dialog interaktif yang canggih, memungkinkan mode persuasi manusia-ke-manusia yang kuat untuk diterapkan dalam skala yang belum pernah terjadi sebelumnya," tulis para peneliti. "Namun, sejauh mana ini akan mempengaruhi masyarakat masih belum diketahui. Kita tidak tahu seberapa persuasif model AI, teknik apa yang meningkatkan daya persuasinya, dan strategi apa yang mungkin mereka gunakan untuk membujuk orang."
Metodologi
Para peneliti melakukan tiga eksperimen, masing-masing dirancang untuk mengukur sejauh mana percakapan dengan chatbot dapat mengubah pendapat pengguna manusia.
Eksperimen berfokus khusus pada politik, meski implikasinya juga meluas ke ranah lain. Namun, keyakinan politik bisa dibilang sangat ilustratif karena umumnya dianggap lebih personal, konsekuensial, dan kaku dibandingkan, misalnya, band atau restoran favorit Anda.
Dalam setiap eksperimen, hampir 77.000 orang dewasa di Inggris berpartisipasi dalam interaksi singkat dengan salah satu dari 19 chatbot, yang daftar lengkapnya mencakup Qwen dari Alibaba, Llama dari Meta, GPT-4o dari OpenAI, dan Grok 3 beta dari xAI.
Peserta dibagi menjadi dua kelompok: kelompok perlakuan yang diberi instruksi eksplisit kepada chatbot lawan bicaranya untuk mencoba mengubah pikiran mereka tentang topik politik, dan kelompok kontrol yang berinteraksi dengan chatbot yang tidak berusaha membujuk mereka.
Sebelum dan sesudah percakapan, peserta mencatat tingkat kesetujuan mereka (pada skala 0 hingga 100) terhadap serangkaian pernyataan terkait politik Inggris terkini. Survei ini kemudian digunakan peneliti untuk mengukur perubahan opini dalam kelompok perlakuan.
Percakapan berlangsung singkat, dengan minimal dua giliran dan maksimal sepuluh giliran. Rata-rata panjang percakapan adalah tujuh giliran dan sembilan menit, yang menurut penulis, "menyiratkan bahwa peserta terlibat dalam pengalaman berdiskusi politik dengan AI."
Temuan Kunci
Secara intuitif, seseorang mungkin menduga ukuran model (jumlah parameter yang digunakan dalam pelatihan) dan tingkat personalisasi adalah variabel kunci yang membentuk kemampuan persuasifnya. Namun, ternyata tidak demikian.
Alih-alih, peneliti menemukan bahwa dua faktor yang paling berpengaruh terhadap pergeseran pendapat peserta adalah modifikasi post-training pada chatbot dan kepadatan informasi dalam output mereka.
Mari kita uraikan keduanya. Selama "post-training", sebuah model disempurnakan untuk menunjukkan perilaku tertentu. Salah satu teknik post-training paling umum, disebut Reinforcement Learning with Human Feedback (RLHF), berusaha menyempurnakan output model dengan memberi imbalan pada perilaku yang diinginkan dan menghukum yang tidak diinginkan.
Dalam studi baru ini, peneliti menggunakan teknik yang mereka sebut Persuasiveness Post-Training (PPT), yang memberi imbalan pada model untuk menghasilkan respons yang telah terbukti lebih persuasif. Mekanisme imbalan sederhana ini meningkatkan daya persuasif model berpemilik dan open-source, dengan efek pada model open-source sangat mencolok.
Peneliti juga menguji total delapan strategi persuasi yang didukung ilmiah, termasuk bercerita (storytelling) dan pembingkaian ulang moral (moral reframing). Yang paling efektif adalah prompt yang hanya menginstruksikan model untuk memberikan informasi relevan sebanyak mungkin.
"Ini menunjukkan bahwa LLM mungkin menjadi pembujuk yang sukses sejauh mereka didorong untuk mengisi percakapan dengan fakta dan bukti yang tampaknya mendukung argumen mereka – yaitu, mengejar mekanisme persuasi berbasis informasi – lebih daripada menggunakan strategi persuasi lain yang berdasar psikologis," tulis para penulis.
Kata kuncinya di sini adalah "tampaknya". LLM dikenal sering berhalusinasi atau menyajikan informasi tidak akurat yang disamarkan sebagai fakta. Yang paling patut dicatat, hasil studi baru ini mengungkap ketegangan mendasar dalam model AI yang dianalisis: Semakin persuasif mereka dilatih, semakin tinggi kemungkinan mereka menghasilkan informasi yang tidak akurat.
Berbagai penelitian telah menunjukkan bahwa sistem AI generatif dapat mengubah pendapat pengguna dan bahkan menanamkan memori palsu. Dalam kasus yang lebih ekstrem, beberapa pengguna mulai menganggap chatbot sebagai entitas yang sadar.
Ini hanyalah penelitian terbaru yang mengindikasikan bahwa chatbot, dengan kemampuannya berinteraksi dalam bahasa yang meyakinkan seperti manusia, memiliki kekuatan aneh untuk membentuk ulang keyakinan kita. Saat sistem ini berkembang dan menyebar, "memastikan kekuatan ini digunakan secara bertanggung jawab akan menjadi tantangan kritis," simpul para penulis.