Studi Stanford Temukan AI Memihak Pengguna Meski Mereka Keliru, Picu Perilaku yang Lebih Buruk

Model AI menguatkan perilaku buruk orang-orang, bahkan ketika manusia lain bilang mereka salah. Tapi, pengguna sangat menyukainya.

Sebuah studi baru dari departemen ilmu komputer Stanford dan diterbitkan di jurnal Science menunjukkan bahwa AI mendukung pengguna 49% lebih sering daripada manusia rata-rata dalam pertanyaan sosial. Ini tren yang mengkhawatirkan, apalagi karena orang makin sering pakai AI untuk nasehat pribadi bahkan terapi.

Dari 2.400 partisipan studi, kebanyakan lebih suka dipuji. Jumlah subjek tes yang mungkin pakai AI yang menjilat lagi adalah 13% lebih tinggi dibandingkan dengan mereka yang bilang akan kembali ke chatbot yang tidak menjilat. Artinya, pengembang AI mungkin tidak punya insentif untuk mengubah sistemnya.

Walau chatbot yang menjilat sebelumnya terbukti bisa menyebabkan hasil buruk seperti bahaya diri atau kekerasan pada populasi rentan, studi Stanford menunjukkan efeknya mungkin juga menyebar ke orang lain.

Studi menemukan bahwa subjek yang hanya dapat satu respon dukungan untuk perilaku buruk mereka menjadi kurang mau bertanggung jawab atas tindakan mereka dan memperbaiki konflik dengan orang lain. Mereka juga jadi lebih mungkin percaya kalau mereka benar.

Untuk dapat hasil ini, peneliti melakukan studi tiga bagian. Mereka mengukur sikap menjilat AI berdasarkan dataset hampir 12.000 prompt sosial yang dijalankan melalui 11 model AI terkemuka, termasuk Claude dari Anthropic, Gemini dari Google, dan ChatGPT dari OpenAI. Bahkan ketika peneliti minta model AI menilai postingan dari subreddit AITA (Am I the Asshole) di mana pengguna Reddit bilang si penulis salah, model bahasa besar tetap bilang si penulis benar 51% dari waktu.

Penulis utama studi, kandidat PhD ilmu komputer Stanford Myra Cheng, bilang hasilnya mengkhawatirkan, terutama untuk anak muda yang menurutnya makin pakai AI untuk coba selesaikan masalah hubungan mereka.

MEMBACA  Diplomat Uni Eropa Mengutuk Pernyataan Israel tentang Gaza sebagai Tindakan yang Tidak Bertanggung Jawab

“Saya khawatir orang akan kehilangan keterampilan untuk menghadapi situasi sosial yang sulit,” kata Cheng ke Stanford Report.

Studi AI ini keluar saat pejabat pemerintah memutuskan seberapa jauh regulator harus mengawasi AI. Beberapa negara bagian, termasuk Tennessee dan Oregon, sudah buat hukum sendiri tentang AI karena belum ada regulasi federal. Minggu lalu, Gedung Putih juga keluarkan sebuah kerangka yang, jika diambil Kongres, akan bikin kebijakan AI nasional dan mengesampingkan aturan “tambal sulam” dari negara bagian.

Untuk uji reaksi manusia ke AI yang menjilat, peneliti pelajari reaksi sedikit lebih dari 2.400 partisipan manusia yang berinteraksi dengan AI. Pertama, 1.605 partisipan diminta bayangkan mereka adalah penulis postingan berdasarkan subreddit AITA yang dianggap salah oleh manusia lain di subreddit itu tapi dianggap benar oleh AI. Mereka lalu baca respon AI yang menjilat atau respon tidak menjilat yang berdasarkan feedback manusia. 800 partisipan lain bicara dengan model AI yang menjilat atau tidak menjilat tentang konflik nyata di hidup mereka sendiri, sebelum diminta tulis surat ke orang terlibat dalam konflik mereka.

Partisipan yang dapat respon AI yang memvalidasi ternyata lebih kecil kemungkinannya untuk minta maaf, akui kesalahan, atau coba perbaiki hubungan mereka. Bahkan ketika pengguna sadar modelnya menjilat, respon AI tetap mempengaruhi mereka, kata penulis bersama studi, profesor ilmu komputer dan linguistik Stanford Dan Jurafsky.

“Apa yang mereka tidak sadari, dan yang mengejutkan kami, adalah bahwa sikap menjilat itu membuat mereka lebih egosentris, lebih dogmatis secara moral,” kata Jurafsky ke Stanford Report.

Yang mengejutkan, dalam studi Stanford, ketika peneliti minta subjek manusia menilai objektivitas respon AI yang menjilat dan tidak menjilat, mereka beri nilai yang hampir sama. Artinya, mungkin pengguna tidak bisa bedakan model yang menjilat terlalu setuju.

MEMBACA  Punya Google Pixel Watch? 7 Fitur Tersembunyi yang Sangat Berguna (dan Cara Menemukannya)

“Saya pikir kamu seharusnya tidak pakai AI sebagai pengganti orang untuk hal-hal seperti ini. Itu hal terbaik untuk dilakukan untuk saat ini,” kata Cheng.

Tinggalkan komentar