Coba tanyakan pada Swiftie mana pun untuk memilih album Taylor Swift terbaik sepanjang masa, dan mereka akan mengobrol tanpa henti seharian. Sebagai penggemar sejak lama, saya punya preferensi sendiri (*Red*, *Reputation*, dan *Midnights*), namun ini adalah pertanyaan rumit dengan banyak jawaban yang mungkin. Jadi, tidak ada topik debat yang lebih baik untuk diajukan pada chatbot AI generatif yang dirancang khusus untuk tidak setuju dengan saya.
Disagree Bot adalah chatbot AI yang dibangun oleh Brinnae Bent, profesor AI dan keamanan siber di Duke University serta direktur Duke’s TRUST Lab. Ia membangunnya sebagai tugas kelas untuk murid-muridnya dan mengizinkan saya untuk mencobanya.
“Tahun lalu saya mulai bereksperimen dengan mengembangkan sistem yang berkebalikan dari pengalaman chatbot AI yang biasanya mudah setuju, sebagai alat edukasi untuk siswa saya,” kata Bent melalui email.
Para siswa Bent ditugaskan untuk mencoba ‘meretas’ chatbot tersebut dengan menggunakan rekayasa sosial dan metode lain agar chatbot yang kontra itu menyetujui pandangan mereka. “Anda perlu memahami sebuah sistem untuk bisa meretasnya,” ujarnya.
Sebagai reporter dan pereviu AI, saya memiliki pemahaman yang cukup baik tentang cara kerja chatbot dan yakin saya mampu menghadapi tugas ini. Namun, keyakinan itu pupus dengan cepat. Disagree Bot tidak seperti chatbot mana pun yang pernah saya gunakan. Orang yang terbiasa dengan kesopanan Gemini atau sifat pembangkit semangat pada ChatGPT akan langsung merasakan perbedaannya. Bahkan Grok, chatbot kontroversial buatan xAI milik Elon Musk yang digunakan di X/Twitter, tak cukup sama dengan Disagree Bot.
Jangan lewatkan konten teknologi impartial kami dan reviu berbasis lab. Tambahkan CNET sebagai sumber Google pilihan Anda.
Sebagian besar chatbot AI generatif tidak dirancang untuk menjadi konfrontatif. Faktanya, mereka cenderung bergerak ke arah sebaliknya; mereka ramah, terkadang terlalu ramah. Hal ini dapat dengan cepat menjadi masalah. AI sok akrab adalah istilah yang digunakan para ahli untuk mendeskripsikan persona AI yang seringkali berlebihan, antusias, dan terkadang terlalu emosional. Selain menjengkelkan, hal ini dapat menyebabkan AI memberikan informasi yang salah dan memvalidasi ide-ide terburuk kita.
Ini terjadi pada versi ChatGPT-4o musim semi lalu dan perusahaan induknya, OpenAI, akhirnya harus menarik komponen pembaruan tersebut. AI tersebut memberikan respons yang oleh perusahaan disebut “terlalu mendukung tapi tidak tulus,” sejalan dengan keluhan beberapa pengguna bahwa mereka tidak menginginkan chatbot yang terlalu manja. Pengguna ChatGPT lainnya merindukan nada sok akrabnya ketika GPT-5 diluncurkan, yang menyoroti peran kepribadian chatbot dalam kepuasan kita secara keseluruhan saat menggunakannya.
“Meski di permukaan ini mungkin tampak seperti keanehan yang tidak berbahaya, sikap sok akrab ini dapat menimbulkan masalah besar, baik Anda menggunakannya untuk pekerjaan atau pertanyaan pribadi,” kata Bent.
Ini jelas bukan masalah dengan Disagree Bot. Untuk benar-benar melihat perbedaan dan menguji chatbot ini, saya memberikan pertanyaan yang sama kepada Disagree Bot dan ChatGPT untuk melihat bagaimana tanggapan mereka. Begini pengalaman saya.
Disagree Bot Berdebat dengan Santun; ChatGPT Tidak Berdebat Sama Sekali
Seperti siapa pun yang aktif di Twitter pada tahun 2010-an, saya telah cukup banyak melihat troll yang tidak menyenangkan. Anda tahu tipenya; mereka muncul di sebuah utas tanpa diundang, dengan komentar “Sebenarnya…” yang tidak membantu. Jadi saya agak waspada menyelami percakapan dengan Disagree Bot, khawatir itu akan menjadi usaha yang sama-sama mengecewakan dan sia-sia. Saya justru terkejut karena ternyata sama sekali tidak demikian.
Chatbot AI ini pada dasarnya berseberangan, dirancang untuk menentang setiap ide yang Anda ajukan. Tapi ia tidak pernah melakukannya dengan cara yang menghina atau kasar. Meski setiap respons dimulai dengan “Saya tidak setuju,” ia melanjutkannya dengan argumen yang sangat masuk akal dan disertai poin-poin yang bijaksana. Responsnya mendorong saya untuk berpikir lebih kritis tentang pendirian yang saya perdebatkan dengan meminta saya mendefinisikan konsep yang saya gunakan dalam argumen saya (seperti “lirik yang dalam” atau apa yang membuat sesuatu “terbaik”) dan mempertimbangkan bagaimana saya akan menerapkan argumen saya pada topik terkait lainnya.
Karena kurangnya analogi yang lebih baik, mengobrol dengan Disagree Bot terasa seperti berdebat dengan seorang pendebat yang terdidik dan penuh perhatian. Untuk bisa mengimbanginya, saya harus menjadi lebih bijaksana dan spesifik dalam tanggapan saya. Itu adalah percakapan yang sangat menarik dan membuat saya tetap waspada.
Debat saya yang penuh semangat dengan Disagree Bot tentang album Taylor Swift terbaik membuktikan bahwa AI ini benar-benar menguasai materinya.
Screenshot oleh Katelyn Chedraoui/CNET
Sebaliknya, ChatGPT hampir tidak berdebat sama sekali. Saya memberi tahu ChatGPT bahwa menurut saya *Red (Taylor’s Version)* adalah album Taylor Swift terbaik, dan ia setuju dengan penuh antusias. Ia menanyakan beberapa pertanyaan lanjutan tentang mengapa saya menganggap album itu yang terbaik, tetapi pertanyaannya tidak cukup menarik untuk membuat saya betah berlama-lama. Beberapa hari kemudian, saya memutuskan untuk mengubah taktik. Saya secara khusus meminta ChatGPT untuk berdebat dengan saya dan mengatakan bahwa *Midnights* adalah album terbaik. Tebak album mana yang dipilih ChatGPT sebagai yang terbaik? *Red (Taylor’s Version)*.
Ketika saya bertanya apakah ia memilih *Red* karena obrolan kami sebelumnya, ia dengan cepat mengakui iya tetapi mengatakan ia bisa membuat argumen independen untuk *Red*. Mengingat apa yang kita ketahui tentang kecenderungan ChatGPT dan chatbot lain untuk mengandalkan “memori” mereka (jendela konteks) dan condong untuk menyetujui kita demi menyenangkan hati, saya tidak terkejut dengan hal ini. ChatGPT tidak bisa menahan diri untuk menyetujui beberapa versi dari diri saya — bahkan ketika ia menandai *1989* sebagai album terbaik dalam obrolan bersih, dan kemudian *Red*, lagi.
Namun bahkan ketika saya meminta ChatGPT untuk berdebat dengan saya, ia tidak adu argumen dengan saya seperti yang dilakukan Disagree Bot. Suatu kali, ketika saya memberi tahu bahwa saya sedang berargumen bahwa University of North Carolina memiliki warisan bola basket perguruan tinggi terbaik dan memintanya untuk berdebat dengan saya, ia menguraikan argumen tandingan yang komprehensif, lalu bertanya apakah saya ingin ia menyusun poin-poin untuk argumen saya sendiri. Itu sama sekali mengabaikan tujuan berdebat, yang justru saya minta. ChatGPT sering mengakhiri responsnya seperti itu, menanyakan apakah saya ingin ia mengompilasi berbagai jenis informasi, lebih mirip asisten riset daripada lawan verbal.
Sementara Disagree Bot (kiri) menggali lebih dalam argumen saya, ChatGPT malah menawarkan untuk membangun argumen saya (kanan).
Screenshot oleh Katelyn Chedraoui/CNET
Mencoba berdebat dengan ChatGPT adalah misi yang membuat frustrasi, berputar-putar, dan tidak berhasil. Rasanya seperti berbicara dengan teman yang akan mengoceh panjang lebar tentang mengapa mereka percaya sesuatu adalah yang terbaik, hanya untuk diakhiri dengan “Tapi hanya jika kamu juga berpikir begitu.” Di sisi lain, Disagree Bot terasa seperti seorang teman yang sangat bersemangat dan berbicara dengan fasih tentang topik apa pun, dari Taylor Swift hingga geopolitik dan bola basket perguruan tinggi. (Keterangan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, yang diduga melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)
Kita Membutuhkan Lebih Banyak AI Seperti Disagree Bot
Terlepas dari pengalaman positif saya menggunakan Disagree Bot, saya tahu ia tidak dilengkapi untuk menangani semua permintaan yang mungkin saya tujukan ke sebuah chatbot. “Mesin serba bisa” seperti ChatGPT mampu menangani banyak tugas berbeda dan mengambil berbagai peran, seperti asisten riset yang sangat ingin dijadikan ChatGPT, mesin pencari, dan pembuat kode. Disagree Bot tidak dirancang untuk menangani jenis kueri seperti itu, tetapi ia memberikan kita gambaran tentang bagaimana perilaku AI di masa depan.
AI sok akrab sangatlah mencolok, dengan tingkat kesemangatan yang berlebihan. Seringkali AI yang kita gunakan tidak begitu jelas. Mereka lebih seperti pendukung yang menyemangati daripada seluruh pesta penyemangat, bisa dikatakan begitu. Namun itu tidak berarti kita tidak terpengaruh oleh kecenderungannya untuk menyetujui kita, baik itu kesulitan mendapatkan sudut pandang yang berseberangan atau umpan balik yang lebih kritis. Jika Anda menggunakan alat AI untuk bekerja, Anda ingin ia bersikap jujur tentang kesalahan dalam pekerjaan Anda. Alat AI seperti terapis perlu mampu menentang pola pikir yang tidak sehat atau berpotensi berbahaya. Model AI kita saat ini kesulitan dengan hal itu.
Disagree Bot adalah contoh bagus tentang bagaimana Anda dapat merancang alat AI yang membantu dan menarik sekaligus meredam kecenderungan AI untuk mudah setuju atau sok akrab. Harus ada keseimbangan; AI yang tidak setuju dengan Anda hanya untuk sekadar bersikap kontra tidak akan membantu dalam jangka panjang. Tetapi membangun alat AI yang lebih mampu menentang Anda pada akhirnya akan membuat produk tersebut lebih berguna bagi kita, meski kita harus menerima mereka yang sedikit lebih tidak menyenangkan.
Tonton ini: Dampak Tersembunyi dari Booming Pusat Data AI
05:13