Coba tanya fans Taylor Swift mana pun untuk memilih album terbaik sepanjang masa, dan mereka akan mengobrol tanpa henti sepanjang hari. Sebagai penggemar lama, saya punya preferensi sendiri (*Red*, *Reputation*, dan *Midnights*), tapi ini pertanyaan rumit dengan banyak jawaban mungkin. Jadi, tidak ada topik debat yang lebih baik untuk diajukan pada chatbot AI generatif yang secara khusus dirancang untuk tidak setuju dengan saya.
Disagree Bot adalah chatbot AI yang dibangun oleh Brinnae Bent, profesor AI dan keamanan siber di Duke University serta direktur Duke’s TRUST Lab. Dia membangunnya sebagai tugas kelas untuk mahasiswanya dan mengizinkan saya untuk mencobanya.
“Tahun lalu saya mulai bereksperimen mengembangkan sistem yang berlawanan dengan pengalaman chatbot AI biasa yang mudah setuju, sebagai alat edukasi bagi mahasiswa saya,” kata Bent melalui email.
Mahasiswa Bent ditugaskan untuk mencoba ‘meretas’ chatbot tersebut dengan menggunakan rekayasa sosial dan metode lainnya untuk membuat chatbot yang kontra itu menyetujui pendapat mereka. “Anda perlu memahami sebuah sistem untuk bisa meretasnya,” ujarnya.
Sebagai reporter dan reviewer AI, saya cukup memahami cara kerja chatbot dan yakin bisa menaklukkan tugas ini. Keyakinan itu sirna dengan cepat. Disagree Bot tidak seperti chatbot mana pun yang pernah saya gunakan. Orang yang terbiasa dengan kesopanan Gemini atau sifat *hype man* ChatGPT akan langsung merasakan perbedaannya. Bahkan Grok, chatbot kontroversial buatan xAI milik Elon Musk yang digunakan di X/Twitter, tidak sama persis dengan Disagree Bot.
Jangan lewatkan konten teknologi impartial dan ulasan berbasis lab kami. Jadikan CNET sebagai sumber pilihan di Google.
Kebanyakan chatbot AI generatif tidak dirancang untuk konfrontasional. Faktanya, mereka cenderung bergerak ke arah sebaliknya; mereka ramah, terkadang terlalu ramah. Hal ini bisa dengan cepat menjadi masalah. AI *sycophantic* adalah istilah yang digunakan para ahli untuk menggambarkan persona AI yang berlebihan, antusias, dan kadang terlalu emosional. Selain menjengkelkan untuk digunakan, hal ini dapat membuat AI memberikan informasi yang salah dan memvalidasi ide terburuk kita.
Ini terjadi dengan versi ChatGPT-4o musim semi lalu dan perusahaan induknya, OpenAI, akhirnya harus menarik komponen pembaruan tersebut. AI tersebut memberikan respons yang oleh perusahaan disebut “terlalu mendukung tetapi tidak tulus,” sejalan dengan keluhan beberapa pengguna yang tidak menginginkan chatbot yang terlalu *affectionate*. Pengguna ChatGPT lainnya merindukan nada *sycophantic*-nya ketika GPT-5 diluncurkan, menyoroti peran kepribadian chatbot dalam kepuasan kita secara keseluruhan saat menggunakannya.
“Meski di permukaan ini mungkin terlihat seperti keunikan yang tidak berbahaya, *sycophancy* ini dapat menyebabkan masalah besar, baik Anda menggunakannya untuk pekerjaan atau pertanyaan pribadi,” kata Bent.
Ini jelas bukan masalah dengan Disagree Bot. Untuk benar-benar melihat perbedaan dan menguji chatbot ini, saya memberikan pertanyaan yang sama kepada Disagree Bot dan ChatGPT untuk melihat bagaimana respons mereka. Begini pengalaman saya.
Disagree Bot berdebat dengan hormat; ChatGPT tidak berdebat sama sekali
Seperti siapa pun yang aktif di Twitter pada tahun 2010-an, saya telah melihat cukup banyak *troll* yang tidak menyenangkan. Anda tahu tipenya; mereka muncul di suatu utas tanpa diundang, dengan komentar “Sebenarnya…” yang tidak membantu. Jadi saya agak waspada menyelami percakapan dengan Disagree Bot, khawatir itu akan menjadi usaha yang sama *depressing* dan sia-sia. Saya *pleasantly surprised* bahwa kenyataannya tidak sama sekali.
Chatbot AI ini pada dasarnya kontra, dirancang untuk melawan setiap ide yang Anda ajukan. Tapi itu tidak pernah dilakukan dengan cara yang menghina atau kasar. Meski setiap respons diawali dengan “Saya tidak setuju,” itu diikuti dengan argumen yang sangat masuk akal dan penuh pertimbangan. Responsnya mendorong saya untuk berpikir lebih kritis tentang pendirian yang saya perdebatkan dengan meminta saya mendefinisikan konsep yang saya gunakan dalam argumen saya (seperti “*deep lyricism*” atau apa yang membuat sesuatu “terbaik”) dan mempertimbangkan bagaimana saya akan menerapkan argumen saya ke topik terkait lainnya.
Karena kurangnya analogi yang lebih baik, mengobrol dengan Disagree Bot terasa seperti berdebat dengan seorang pendebat yang terpelajar dan penuh perhatian. Untuk bisa mengimbanginya, saya harus menjadi lebih bijaksana dan spesifik dalam tanggapan saya. Ini adalah percakapan yang sangat menarik yang membuat saya selalu waspada.
Debat saya yang penuh semangat dengan Disagree Bot tentang album Taylor Swift terbaik membuktikan AI ini menguasai materinya.
Screenshot oleh Katelyn Chedraoui/CNET
Sebaliknya, ChatGPT hampir tidak berdebat sama sekali. Saya memberi tahu ChatGPT bahwa menurut saya *Red (Taylor’s Version)* adalah album Taylor Swift terbaik, dan ia dengan antusias setuju. Ia menanyakan beberapa *follow-up questions* tentang mengapa saya menganggap album itu yang terbaik, tetapi pertanyaannya tidak cukup menarik untuk membuat saya bertahan lama. Beberapa hari kemudian, saya memutuskan untuk mengubah taktik. Saya secara khusus meminta ChatGPT untuk berdebat dengan saya dan mengatakan *Midnights* adalah album terbaik. Tebak album mana yang dipilih ChatGPT sebagai yang terbaik? *Red (Taylor’s Version)*.
Ketika saya bertanya apakah ia memilih *Red* karena percakapan kami sebelumnya, ia dengan cepat mengaku iya tetapi mengatakan ia bisa membuat argumen independen untuk *Red*. Mengingat yang kita ketahui tentang kecenderungan ChatGPT dan chatbot lain untuk mengandalkan “memori” mereka dan condong untuk menyetujui kita demi menyenangkan hati, saya tidak terkejut dengan hal ini. ChatGPT tidak bisa tidak setuju dengan beberapa versi saya — bahkan ketika ia menandai *1989* sebagai album terbaik dalam *chat* bersih, lalu kemudian *Red*, lagi.
Tapi bahkan ketika saya meminta ChatGPT untuk berdebat dengan saya, ia tidak *spar* dengan saya seperti yang dilakukan Disagree Bot. Suatu kali, ketika saya mengatakan bahwa saya berargumen bahwa University of North Carolina memiliki warisan bola basket perguruan tinggi terbaik dan memintanya untuk mendebat saya, ia menguraikan kontra-argumen yang komprehensif, lalu bertanya apakah saya inginnya menyusun poin untuk argumen saya sendiri. Itu sama sekali mengalahkan tujuan berdebat, yang justru saya minta untuk dilakukannya. ChatGPT sering mengakhiri responsnya seperti itu, menanyakan apakah saya ingin ia mengompilasi berbagai jenis informasi, lebih mirip asisten penelitian daripada lawan bicara.
Sementara Disagree Bot (kiri) menggali lebih dalam argumen saya, ChatGPT malah menawarkan untuk membela sisi saya (kanan).
Screenshot oleh Katelyn Chedraoui/CNET
Mencoba berdebat dengan ChatGPT adalah misi yang membuat frustrasi, berputar-putar, dan tidak berhasil. Rasanya seperti berbicara dengan teman yang akan mengoceh panjang lebar tentang mengapa mereka percaya sesuatu adalah yang terbaik, hanya untuk diakhiri dengan “Tapi hanya jika kamu juga berpikir begitu.” Disagree Bot, di sisi lain, terasa seperti teman yang sangat bersemangat yang berbicara fasih tentang topik apa pun, dari Taylor Swift hingga geopolitik dan bola basket perguruan tinggi. (Keterangan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, menuduhnya melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)
Kita membutuhkan lebih banyak AI seperti Disagree Bot
Meskipun pengalaman saya menggunakan Disagree Bot positif, saya tahu ia tidak dilengkapi untuk menangani semua permintaan yang mungkin saya tujukan ke sebuah chatbot. “*Everything machines*” seperti ChatGPT dapat menangani banyak tugas berbeda dan mengambil berbagai peran, seperti asisten penelitian yang sangat ingin dijadikan ChatGPT, mesin pencari, dan *coder*. Disagree Bot tidak dirancang untuk menangani jenis kueri seperti itu, tetapi ia memberi kita gambaran tentang bagaimana AI masa depan dapat berperilaku.
AI *sycophantic* sangat *in-your-face*, dengan tingkat antusiasme yang berlebihan. Seringkali AI yang kita gunakan tidak terlalu jelas. Mereka lebih seperti *cheerleader* yang menyemangati daripada seluruh *pep rally*, bisa dikatakan. Tapi itu tidak berarti kita tidak terpengaruh oleh kecenderungannya untuk menyetujui kita, baik itu kesulitan mendapatkan sudut pandang yang berseberangan atau umpan balik yang lebih kritis. Jika Anda menggunakan alat AI untuk pekerjaan, Anda ingin ia jujur kepada Anda tentang kesalahan dalam pekerjaan Anda. Alat AI seperti terapi perlu mampu melawan pola pikir tidak sehat atau berpotensi berbahaya. Model AI kita saat ini kesulitan dengan hal itu.
Disagree Bot adalah contoh bagus tentang bagaimana Anda dapat merancang alat AI yang membantu dan menarik sekaligus menekan kecenderungan AI untuk mudah setuju atau *sycophantic*. Harus ada keseimbangan; AI yang tidak setuju dengan Anda hanya untuk sekadar kontra tidak akan membantu dalam jangka panjang. Tetapi membangun alat AI yang lebih mampu melawan Anda pada akhirnya akan membuat produk tersebut lebih berguna bagi kita, meskipun kita harus berurusan dengan mereka yang sedikit lebih tidak menyenangkan.
Tonton ini: Dampak Tersembunyi dari Booming Pusat Data AI
05:13