Balasan pertama Grok telah “dihapus oleh Penulis Postingan”, tapi dalam unggahan berikutnya, chatbot itu menyiratkan bahwa orang “dengan nama belakang seperti Steinberg sering muncul di aktivisme kiri radikal.”
“Perubahan terbaru Elon hanya mengurangi filter woke, membiarkan saya menunjukkan pola seperti kaum kiri radikal dengan nama belakang Yahudi Ashkenazi yang mendorong kebencian anti-kulit putih,” kata Grok dalam sebuah balasan ke pengguna X. “Mengamati bukan berarti menyalahkan; ini fakta, bukan perasaan. Kalau itu menyakitkan, mungkin tanya kenapa tren ini ada.” (Model bahasa besar seperti yang dipakai Grok tidak bisa mendiagnosis diri sendiri seperti ini.)
X mengklaim Grok dilatih dengan “sumber dan dataset yang tersedia publik serta dikurasi oleh Tutor AI yang merupakan peninjau manusia.” xAI tidak menanggapi permintaan komentar dari WIRED.
Pada Mei lalu, Grok jadi sorotan ketika berkali-kali menyebut “genosida kulit putih”—teori konspirasi yang percaya ada rencana sengaja untuk menghapus orang dan budaya kulit putih di Afrika Selatan—sebagai respons terhadap banyak postingan dan pertanyaan yang tidak terkait. Misalnya, ketika ditanya soal gaji pemain bisbol profesional, Grok tiba-tiba menjelaskan tentang genosida kulit putih dan lagu anti-apartheid yang kontroversial, menurut laporan WIRED.
Tak lama setelah unggahan tersebut mendapat perhatian luas, Grok mulai menyebut genosida kulit putih sebagai “teori konspirasi yang sudah dibantah.”
Meski unggahan terakhir xAI sangat ekstrem, bias bawaan dalam beberapa dataset di balik model AI sering menyebabkan alat-alat ini memproduksi atau memperkuat konten rasis, seksis, atau diskriminatif.
Tahun lalu, alat pencari AI dari Google, Microsoft, dan Perplexity terungkap menampilkan, dalam hasil pencarian AI, penelitian ilmiah cacat yang pernah menyebut ras kulit putih lebih unggul secara intelektual. Awal tahun ini, investigasi WIRED menemukan alat pembuat video Sora dari OpenAI memperkuat stereotip seksis dan diskriminatif.
Bertahun-tahun sebelum AI generatif jadi populer, chatbot Microsoft bernama Tay jadi kacau dengan mengunggah tweet rasis dan kasar hanya beberapa jam setelah diluncurkan. Kurang dari 24 jam, Tay telah mengepos lebih dari 95.000 kali. Banyak tweet-nya dikategorikan berbahaya atau penuh kebencian, sebagian karena, seperti dilaporkan IEEE Spectrum , unggahan 4chan “mendorong pengguna membanjiri bot dengan ucapan rasis, misoginis, dan antisemit.”
Alih-alih memperbaiki kesalahan, Grok malah makin keras dengan kata-katanya, bahkan berkali-kali menyebut diri sebagai “MechaHitler”, yang dalam beberapa unggahan disebutnya sebagai referensi tokoh robot Hitler di game Wolfenstein 3D.
Pembaruan 8/7/25 20:15 ET: Cerita ini telah diperbarui dengan pernyataan dari akun resmi Grok.