Chatbot AI Grok milik Elon Musk kembali mengalami gangguan.
Kali ini, di antara berbagai masalah lain, chatbot tersebut menyebarkan misinformasi seputar penembakan di Bondi Beach, yang menewaskan setidaknya sebelas orang dalam sebuah perayaan Hanukkah.
Salah seorang pelaku akhirnya dilumpuhkan oleh seorang saksi, yang diidentifikasi sebagai Ahmed al Ahmed (43). Video interaksi tersebut telah tersebar luas di media sosial dengan banyak pujian atas heroisme pria itu. Kecuali dari mereka yang memanfaatkan tragedi ini untuk menyebarkan Islamofobia, terutama dengan menyangkal validitas laporan yang mengidentifikasi sang penolong.
Grok tidak membantu situasi. Chatbot itu tampak mengalami glitch, setidaknya hingga Minggu pagi, dengan memberikan tanggapan yang tidak relevan atau bahkan keliru sama sekali terhadap pertanyaan pengguna.
Menanggapi pertanyaan seorang pengguna tentang kisah di balik video al Ahmed melumpuhkan penembak, AI itu mengklaim, “Ini tampaknya video viral lama tentang seorang pria memanjat pohon palem di tempat parkir, mungkin untuk memotongnya, yang mengakibatkan ranting jatuh dan merusak mobil yang diparkir. Pencarian di berbagai sumber tidak menunjukkan lokasi, tanggal, atau korban luka yang terverifikasi. Mungkin ini rekayasa; keasliannya tidak pasti.”
Dalam contoh lain, Grok mengklaim bahwa foto al Ahmed yang terluka adalah foto seorang sandera Israel yang diambil oleh Hamas pada 7 Oktober.
Menanggapi pertanyaan pengguna lain, Grok kembali mempertanyakan keaslian konfrontasi al Ahmed, tepat setelah sebuah paragraf tidak relevan tentang apakah tentara Israel sengaja menargetkan warga sipil di Gaza atau tidak.
Dalam insiden lainnya, Grok mendeskripsikan sebuah video yang jelas-jelas ditandai dalam cuitan sebagai baku tembak antara pelaku dan polisi di Sydney, justru sebagai video dari Topan Alfred yang melanda Australia awal tahun ini. Meski dalam kasus ini, pengguna bersikeras meminta Grok mengevaluasi ulang, sehingga chatbot itu menyadari kesalahannya.
Lebih dari sekadar salah mengidentifikasi informasi, Grok tampak benar-benar bingung. Seorang pengguna diberikan ringkasan penembakan Bondi dan dampaknya sebagai jawaban atas pertanyaan mengenai perusahaan teknologi Oracle. Ia juga tampak mencampuradukkan informasi antara penembakan Bondi dan penembakan di Universitas Brown yang terjadi hanya beberapa jam sebelum serangan di Australia.
Gangguan ini juga meluas di luar kasus Bondi. Sepanjang Minggu pagi, Grok salah mengidentifikasi pemain sepak bola terkenal, memberikan informasi tentang penggunaan acetaminofen selama kehamilan ketika ditanya tentang pil aborsi mifepristone, atau membahas Proyek 2025 dan peluang Kamala Harris mencalonkan diri lagi sebagai presiden ketika diminta memverifikasi klaim terpisah tentang inisiatif penegak hukum Inggris.
Tidak jelas apa penyebab gangguan ini. Gizmodo menghubungi xAI, pengembang Grok, untuk mendapatkan komentar, namun mereka hanya menanggapi dengan balasan otomatis biasa, “Media Legacy Bohong.”
Ini juga bukan pertama kalinya Grok kehilangan kendali atas realitas. Chatbot ini telah memberikan sejumlah tanggapan yang dipertanyakan tahun ini, mulai dari “modifikasi tak berwenang” yang menyebabkannya merespons setiap pertanyaan dengan teori konspirasi “genosida kulit putih” di Afrika Selatan, hingga pernyataan bahwa ia lebih memilih membunuh seluruh populasi Yahudi di dunia daripada menghancurkan pikiran Musk.