Google menguji AI selama berbulan-bulan sebelum merilisnya secara nasional minggu lalu, tetapi jelas, itu tidak cukup waktu. AI ini mengalami halusinasi dalam menjawab beberapa pertanyaan pengguna, menciptakan pengalaman yang kurang dapat dipercaya di produk unggulan Google. Pada minggu lalu, Gizmodo menerima AI yang mengacu pada pizza berlapis lem dan menyarankan bahwa Barack Obama adalah Muslim.
Halusinasi ini mengkhawatirkan, tetapi tidak sepenuhnya mengejutkan. Seperti yang kita lihat sebelumnya dengan chatbot AI, teknologi ini tampaknya bingung antara satire dan jurnalisme – beberapa ringkasan AI yang salah yang kami temukan tampaknya merujuk pada The Onion. Masalahnya adalah bahwa AI ini memberikan jawaban yang otoritatif kepada jutaan orang yang beralih ke Google Search setiap hari hanya untuk mencari tahu sesuatu. Sekarang, setidaknya beberapa dari orang-orang ini akan diperkenalkan dengan jawaban yang dihalusinasikan.
“Sebagian besar Ringkasan AI memberikan informasi berkualitas tinggi, dengan tautan untuk menjelajah lebih dalam di web,” kata juru bicara Google dalam pernyataan yang dikirim melalui email kepada Gizmodo, mencatat banyak contoh yang telah dilihat oleh perusahaan berasal dari pertanyaan yang jarang diajukan. “Kami mengambil tindakan cepat di mana sesuai dengan kebijakan konten kami, dan menggunakan contoh-contoh ini untuk mengembangkan peningkatan yang lebih luas pada sistem kami, beberapa di antaranya sudah mulai diterapkan.”
Menurut pengalaman saya, Ringkasan AI lebih sering benar daripada salah. Namun, setiap jawaban yang salah yang saya terima membuat saya mempertanyakan seluruh pengalaman saya di Google Search bahkan lebih – saya harus menilai setiap jawaban dengan hati-hati. Google mencatat bahwa AI ini “eksperimental” tetapi mereka telah mengikutkan semua orang dalam eksperimen ini secara default.
“Masalah dengan Search – kami menangani miliaran kueri,” kata CEO Google Sundar Pichai kepada The Verge pada hari Senin ketika ditanya tentang peluncuran Ringkasan AI. “Anda benar-benar bisa menemukan sebuah kueri dan memberikannya kepada saya dan mengatakan, ‘Apakah kita bisa melakukannya lebih baik pada kueri itu?’ Ya, tentu. Namun, dalam banyak kasus, bagian dari apa yang membuat orang merespons positif terhadap Ringkasan AI adalah bahwa ringkasan yang kami sediakan dengan jelas menambah nilai dan membantu mereka melihat hal-hal yang mungkin tidak pernah mereka pikirkan sebelumnya.”
Secara aneh, Google Search kadang-kadang merespons sebuah kueri dengan “Ringkasan AI tidak tersedia untuk pencarian ini,” sementara kadang-kadang, Google hanya tidak mengatakan apa-apa dan menunjukkan hasil pencarian tradisional. Saya mendapatkan jawaban ini ketika saya mencari “etnisitas apa yang dimiliki kebanyakan presiden AS” dan ketika saya mencari “buah apa yang berakhir dengan saya.”
Juru bicara Google mengatakan sistemnya kadang-kadang mulai menghasilkan Ringkasan AI, tetapi menghentikannya dari muncul ketika tidak memenuhi ambang batas kualitasnya. Perlu dicatat, Google harus menunda jawaban dan pembuatan gambar Gemini sekitar topik ras selama berbulan-bulan setelah itu membuat marah sebagian besar negara. Tidak jelas apakah generasi Ringkasan AI “berhenti dan mulai” ini terkait.
Yang jelas adalah bahwa Google merasa tertekan untuk membuktikan ucapannya, dan itu berarti memasukkan AI ke dalam Search. Orang-orang semakin memilih ChatGPT, Perplexity, atau penawaran AI lainnya sebagai cara utama mereka untuk mencari informasi di internet. Google melihat perlombaan ini secara eksistensial, tetapi mungkin telah membahayakan pengalaman Search dengan mencoba mengejarnya.
Minggu ini, Google Search memberi tahu orang banyak hal aneh melalui Ringkasan AI. Berikut beberapa hal aneh yang ditemukan oleh Gizmodo.