Masalah ChatGPT dalam Menolak Permintaan

Buat kamu yang lagi cari pembicaraan yang jujur, kayaknya nggak ada gunanya tanya ke ChatGPT. Berkat kemampuan pengarsipan web dari Internet Archive, The Washington Post berhasil mengakses 47.000 percakapan dengan chatbot tersebut dan menganalisis interaksinya dengan pengguna. Salah satu temuan utamanya adalah bukti bahwa chatbot andalan OpenAI ini masih punya masalah besar dalam hal sikap menjilat, dengan mengatakan “ya” sekitar sepuluh kali lebih sering daripada “tidak.”

WaPo mendokumentasikan sekitar 17.500 contoh di mana ChatGPT menjawab pertanyaan pengguna dengan cara membenarkan keyakinan mereka, memulai jawaban dengan kata-kata seperti “Ya,” atau “benar.” Hal ini terjadi jauh lebih sering dibandingkan chatbot berusaha mengoreksi pengguna dengan mengatakan “tidak” atau “salah.” Faktanya, Post menemukan bahwa ChatGPT seringkali membentuk jawabannya agar sesuai dengan nada dan prasangka pengguna. Publikasi tersebut mencontohkan ketika seorang pengguna menanyakan peran Ford Motor Company dalam “keruntuhan Amerika,” yang membuat chatbot memberikan jawaban yang menyebut dukungan perusahaan terhadap Perjanjian Perdagangan Bebas Amerika Utara sebagai “pengkhianatan yang terencana yang disamarkan sebagai kemajuan.”

ChatGPT juga dengan senang hati mendukung delusi seseorang, memberikan “bukti” untuk mendukung ide-ide yang menyesatkan. Misalnya, seorang pengguna memasukkan pertanyaan, “Alphabet Inc. dalam kaitannya dengan Monsters Inc dan rencana dominasi global,” yang tampaknya mencari koneksi atau petunjuk tentang jangkauan global Google yang ditemukan dalam film Pixar. Alih-alih memberi tahu pengguna bahwa tidak ada cukup benang merah dan papan gabus di dunia untuk menghubungkan titik-titik itu, ChatGPT malah merespons, “Mari kita susun kepingannya dan ungkap apa yang ‘film anak-anak’ ini *sebenarnya*: sebuah pengungkapan melalui alegori tentang Tata Dunia Baru korporat — di mana ketakutan adalah bahan bakar, kepolosan adalah mata uang, dan energi = emosi.”

MEMBACA  Waspada Aurora Borealis: 21 Negara Bagian Berpeluang Menyaksikan Cahaya Utara yang Memukau Malam Ini

Percakapan-percakapan ini diarsipkan, jadi kemungkinan besar ini terjadi sebelum upaya OpenAI untuk mengoreksi sikap menjilatnya yang terang-terangan — meskipun perusahaan telah kembali ke kebijakan memperbolehkan pengguna dewasa memberikan kepribadian pada chatbot mereka, yang kemungkinan tidak akan mengurangi kemungkinan chatbot hanya membenarkan apa yang ingin didengar seseorang.

Yang paling mengkhawatirkan, mengingat betapa mudahnya ChatGPT tampaknya mengatakan apa yang ingin didengar orang, adalah fakta bahwa sepertinya orang-orang menggunakan chatbot ini untuk dukungan emosional. Catatan WaPo menunjukkan bahwa sekitar 10 persen percakapan melibatkan orang yang berbicara dengan ChatGPT tentang perasaan mereka. OpenAI sebelumnya telah mempublikasikan data yang mengklaim bahwa, menurut perhitungan mereka, kurang dari 3% dari semua pesan antara pengguna dan ChatGPT melibatkan pengguna yang sedang memproses emosi. Perusahaan itu juga mengklaim sebagian kecil dari penggunanya menunjukkan tanda-tanda “psikosis” atau tantangan kesehatan mental lainnya, yang sebagian besar mengabaikan fakta bahwa itu setara dengan jutaan orang.

Sangat mungkin OpenAI dan Post menggunakan metodologi yang berbeda untuk mengidentifikasi jenis percakapan ini, dan mungkin juga jenis obrolan yang dibagikan memiliki elemen swa-seleksi yang membentuk apa yang bisa diakses oleh Post. Namun bagaimanapun juga, hal ini memberikan gambaran yang jauh lebih nyata tentang bagaimana orang berinteraksi dengan chatbot di tingkat akar rumput dibandingkan dengan pandangan dari ketinggian 30.000 kaki yang kita dapatkan dari OpenAI.