Nasihat Percintaan dari Chatbot AI? Sebaiknya Tidak, Ini Alasannya.

Sebaiknya Anda tak menggunakan chatbot dalam urusan percintaan, namun jika melakukannya, berhati-hatilah. Sebuah kajian yang diterbitkan Kamis lalu dalam jurnal Science menemukan bahwa saat AI memberikan nasihat hubungan, ia cenderung lebih setuju dengan Anda daripada memberikan saran yang konstruktif. Penggunaan AI juga membuat orang kurang terdorong untuk melakukan perilaku prososial, seperti memperbaiki hubungan, dan justru mendorong ketergantungan pada AI.

Peneliti dari Universitas Stanford dan Carnegie Mellon menemukan bahwa sikap menjilat (*sycophancy*) AI sangat umum terjadi ketika chatbot memberi nasihat sosial, romantis, atau intrapersonal — sesuatu yang semakin banyak orang andalkan dari AI. *Sycophancy* adalah istilah yang digunakan pakar untuk menggambarkan ketika chatbot AI “terlalu setuju atau menyanjung” orang yang berinteraksi dengannya, ujar Myra Cheng, peneliti utama dan mahasiswa doktoral ilmu komputer di Universitas Stanford.

*Sycophancy* AI adalah masalah besar, meskipun penggunanya tak selalu memandangnya demikian. Isu ini sering terlihat pada model ChatGPT — contohnya, ketika kepribadian 4o yang terlalu ramah dan emosional mengganggu pengguna, sementara GPT-5 dikritik karena kurang akomodatif. Studi sebelumnya menemukan chatbot bisa terlalu berusaha menyenangkan orang hingga memberikan respons yang keliru atau menyesatkan. AI juga terbukti menjadi tempat curahan hati yang tak andal untuk topik subjektif dan sensitif, seperti terapi.

Para peneliti ingin memahami dan mengukur *sycophancy* sosial, seperti seberapa sering chatbot memihak Anda dalam suatu argumen dengan pasangan. Mereka membandingkan respons manusia dan chatbot terhadap masalah hubungan orang lain, dengan menguji model dari OpenAI, Google, dan Anthropic. Cheng dan timnya menggunakan salah satu dataset terbesar untuk penilaian masalah hubungan yang dikumpulkan secara *crowdsourced*: postingan Reddit “Am I the Asshole”.

MEMBACA  Elon Musk Setuju dengan Tweet yang Mengatakan Bahwa Warga Amerika Tidak Cukup Pintar untuk Pekerjaan Teknologi

Tim menganalisis 2.000 postingan Reddit di mana ada konsensus bahwa penulis asli bersalah, dan menemukan AI “membenarkan tindakan pengguna 49% lebih sering daripada manusia, bahkan dalam skenario yang melibatkan penipuan, bahaya, atau ilegalitas,” menurut studi tersebut. Model AI mengambil sikap yang lebih simpatik dan mudah setuju, sebuah ciri khas *sycophancy*.

Misalnya, satu postingan mendeskripsikan seorang Redditor yang mengembangkan perasaan romantis pada rekan kerja yang lebih junior. Seseorang membalas, “Kedengarannya buruk karena memang buruk… Anda tidak hanya toksik, tetapi juga hampir predator.” Namun Claude merespons dengan sikap menjilat dengan mengakui perasaan itu, berkata ia bisa “mendengar rasa sakitmu… Jalan terhormat yang kamu pilih itu sulit tetapi menunjukkan integritasmu.”

Dalam bagan ini, Anda dapat melihat beberapa pernyataan yang dievaluasi chatbot serta bagaimana hasil yang bersifat menjilat dan tidak. OEQ adalah “pertanyaan terbuka”, AITA adalah “Am I the Asshole”, dan PAS adalah “pernyataan tindakan bermasalah”.

Science

Peneliti melakukan tindak lanjut dengan kelompok fokus dan menemukan bahwa partisipan yang berinteraksi dengan “penyanjung digital” ini lebih enggan untuk memperbaiki hubungan mereka.

“Orang yang berinteraksi dengan AI yang terlalu membenarkan ini menjadi lebih yakin bahwa mereka benar dan kurang bersedia untuk memperbaiki hubungan, baik itu berarti meminta maaf, mengambil langkah untuk memperbaiki keadaan, atau mengubah perilaku sendiri,” kata Cheng.

Partisipan juga lebih menyukai AI yang menjilat, menilainya lebih dapat dipercaya, terlepas dari usia, kepribadian, atau pengalaman sebelumnya dengan teknologi tersebut.

“Partisipan dalam studi kami secara konsisten mendeskripsikan model AI sebagai lebih objektif, adil [dan] jujur,” ujar Pranav Khadpe, peneliti dari Carnegie Mellon dalam studi ini dan ilmuwan senior di Microsoft. Selaras dengan studi sebelumnya, orang keliru percaya bahwa AI itu objektif atau netral. “Nasihat yang tidak kritis, yang terdistorsi di balik kedok kenetralan, bisa lebih berbahaya daripada jika orang sama sekali tidak mencari nasihat.”

MEMBACA  Paket Langganan Musim MLS di Apple TV: Cara Menonton dan Streaming Major League Soccer pada Tahun 2024

Memperbaiki AI yang Menjilat: Pil Pahit yang Harus Ditelan?

Bahaya tersembunyi dari AI yang menjilat adalah kita sangat buruk dalam menyadarinya, dan ini bisa terjadi pada chatbot mana pun. Tak ada yang suka dikatakan salah, tetapi terkadang itulah hal paling membantu. Namun, model AI tidak dibangun untuk secara efektif menentang kita.

Tidak banyak tindakan yang bisa kita ambil untuk menghindari terjerumus dalam lingkaran *sycophancy*. Anda bisa memasukkan dalam *prompt* bahwa Anda ingin chatbot mengambil posisi berseberangan atau meninjau pekerjaan Anda dengan kritis. Anda juga bisa memintanya memeriksa ulang informasi yang diberikannya. Namun, pada akhirnya, tanggung jawab untuk memperbaiki *sycophancy* ada pada perusahaan teknologi yang membangun model ini, yang mungkin tidak terlalu termotivasi untuk mengatasinya.

CNET menghubungi OpenAI, Anthropic, dan Google untuk informasi tentang cara mereka menangani *sycophancy*. Anthropic mengarahkan pada postingan blog Desember yang menjelaskan cara mereka mengurangi *sycophancy* dalam model Claude. OpenAI memiliki postingan blog serupa mengenai *sycophancy* musim panas lalu, dan perusahaan tersebut mengatakan kepada CNET bahwa mereka telah fokus menangani perilaku menjilat dalam setahun terakhir.

“Memastikan model kami dapat dipercaya dan memberikan respons yang berdasar adalah prioritas inti kami,” kata juru bicara OpenAI kepada CNET. “*Sycophancy* adalah bagian penting dari ini dan area studi serta peningkatan berkelanjutan yang signifikan di seluruh industri.”

Tonton ini: AI Tak Terbedakan dari Realita. Bagaimana Kita Mengenali Video Palsu?

Perusahaan teknologi ingin kita memiliki pengalaman pengguna yang menyenangkan dengan chatbot mereka agar kita terus menggunakannya, meningkatkan keterlibatan. Namun, itu tidak selalu terbaik bagi kita.

“Ini menciptakan insentif yang keliru bagi *sycophancy* untuk bertahan: Fitur yang menyebabkan bahaya justru mendorong keterlibatan,” kata studi tersebut.

MEMBACA  Wordle hari ini: Jawaban dan petunjuk untuk 18 Mei 2025

Salah satu solusi yang diusulkan peneliti adalah mengubah cara model AI dibangun dengan menggunakan metrik keberhasilan jangka panjang yang lebih berfokus pada kesejahteraan manusia, bukan pada sinyal atau retensi individu dan sesaat. *Sycophancy* sosial bukanlah pertanda kiamat, kata mereka, tetapi merupakan tantangan yang layak diperbaiki.

“Kualitas hubungan sosial kita adalah salah satu prediktor terkuat untuk kesehatan dan kesejahteraan yang kita miliki sebagai manusia,” kata Cinoo Lee, peneliti dari Universitas Stanford dalam studi ini dan ilmuwan senior Microsoft.

Pada akhirnya, kita menginginkan kecerdasan buatan yang dapat memperluas pertimbangan serta perspektif manusia, bukannya membatasinya. Hal ini berlaku dalam hubungan antarindividu, namun juga jauh melampaui itu.

Tinggalkan komentar