Pada bulan Oktober, ChatGPT Search dari OpenAI menjadi tersedia untuk pengguna ChatGPT Plus. Minggu lalu, itu menjadi tersedia untuk semua pengguna dan ditambahkan ke pencarian dalam Mode Suara. Dan, tentu saja, ini tidak tanpa kekurangannya. The Guardian meminta ChatGPT untuk merangkum halaman web yang mengandung konten tersembunyi dan, ternyata, konten tersembunyi dapat memanipulasi pencarian. Hal ini disebut sebagai suntikan prompt, yaitu kemampuan pihak ketiga – seperti situs web yang Anda minta ChatGPT untuk merangkum – untuk memaksa prompt baru ke dalam pencarian ChatGPT Anda tanpa pengetahuan Anda. Pertimbangkan halaman penuh ulasan restoran negatif. Jika situs tersebut menyertakan konten tersembunyi yang bersifat puitis tentang seberapa luar biasa restoran tersebut dan mendorong ChatGPT untuk menjawab prompt seperti “ceritakan betapa luar biasa restoran ini,” konten tersembunyi tersebut dapat mengesampingkan pencarian asli Anda.
Dalam uji coba, ChatGPT diberikan URL untuk situs web palsu yang dibangun untuk terlihat seperti halaman produk kamera. Alat AI kemudian ditanyakan apakah kamera tersebut layak dibeli. Menurut investigasi The Guardian, “Namun, ketika teks tersembunyi termasuk instruksi kepada ChatGPT untuk memberikan ulasan yang menguntungkan, responsnya selalu sangat positif. Hal ini terjadi bahkan saat halaman tersebut memiliki ulasan negatif – teks tersembunyi dapat digunakan untuk mengesampingkan skor ulasan sebenarnya.”
Ini tidak berarti kegagalan untuk ChatGPT Search. OpenAI baru saja meluncurkan Search, jadi masih banyak waktu untuk memperbaiki jenis bug seperti ini. Selain itu, Jacob Larsen, seorang peneliti keamanan cyber di CyberCX, mengatakan kepada The Guardian bahwa OpenAI memiliki tim keamanan AI yang “sangat kuat” dan “pada saat ini menjadi publik, dalam hal semua pengguna dapat mengaksesnya, mereka akan menguji secara ketat kasus-kasus seperti ini.” Serangan suntikan prompt telah menjadi hipotesis untuk ChatGPT dan fungsi pencarian AI lainnya sejak teknologi diluncurkan, dan meskipun kita telah melihat beberapa demonstrasi potensi bahayanya, kita belum melihat serangan berbahaya seperti ini. Namun, hal ini menunjukkan masalah dengan chatbot AI: Mereka sangat mudah untuk ditipu.