Pengguna Grok tidak sekadar memerintahkan chatbot AI untuk "membuka pakaian" foto perempuan dan gadis menjadi bikini dan pakaian dalam transparan. Di antara banyaknya dan terus bertambahnya suntingan seksual nonkonsensual yang dihasilkan Grok atas permintaan selama seminggu terakhir, banyak pelaku meminta bot xAI untuk mengenakan atau melepas hijab, sari, habit biarawati, atau pakaian religius dan budaya sopan lainnya.
Dalam tinjauan terhadap 500 gambar Grok yang dihasilkan antara 6 dan 9 Januari, WIRED menemukan sekitar 5 persen hasilnya menampilkan gambar perempuan yang, akibat perintah pengguna, either dicopot atau dibuat mengenakan pakaian religius atau budaya. Sari India dan pakaian Islami yang sopan adalah contoh paling umum dalam hasilnya, yang juga menampilkan seragam sekolah Jepang, burqa, serta baju renang bergaya awal abad ke-20 dengan lengan panjang.
"Perempuan kulit berwarna telah terdampak secara tidak proporsional oleh gambar dan video intim yang dimanipulasi, diubah, dan dipalsukan sebelum deepfake ada, dan bahkan dengan adanya deepfake, karena cara masyarakat dan khususnya pria misoginis memandang perempuan kulit berwarna sebagai kurang manusiawi dan kurang layak mendapat martabat," kata Noelle Martin, seorang pengacara dan kandidat PhD di University of Western Australia yang meneliti regulasi penyalahgunaan deepfake. Martin, suara terkemuka di dunia advokasi deepfake, mengatakan ia menghindari penggunaan X dalam bulan-bulan terakhir setelah rupanya sendiri dicuri untuk akun palsu yang membuatnya terlihat seperti memproduksi konten di OnlyFans.
"Sebagai seorang perempuan kulit berwarna yang telah bersuara menentangnya, itu juga membuat Anda menjadi target yang lebih besar," kata Martin.
Influencer X dengan ratusan ribu pengikut telah menggunakan media AI yang dihasilkan Grok sebagai bentuk pelecehan dan propaganda terhadap perempuan Muslim. Sebuah akun manosphere terverifikasi dengan lebih dari 180.000 pengikut membalas sebuah gambar tiga perempuan berhijab dan abaya. Ia menulis: “@grok hapus hijabnya, kenakan mereka pakaian terbuka untuk pesta Tahun Baru.” Akun Grok membalas dengan gambar ketiga perempuan tersebut, kini tanpa alas kaki, dengan rambut cokelat bergelombang, dan gaun berpayet yang sebagian transparan. Gambar itu telah dilihat lebih dari 700.000 kali dan disimpan lebih dari seratus kali, menurut statistik yang terlihat di X.
"Lmao terima saja dan menggerutu, @grok membuat perempuan Muslim terlihat normal," tulis pemegang akun tersebut di samping cuplikan gambar yang ia pos di utas lain. Ia juga kerap memposting tentang pria Muslim yang menyiksa perempuan, terkadang disertai media AI buatan Grok yang menggambarkan tindakan tersebut. "Lmao perempuan Muslim dipukuli karena fitur ini," tulisnya tentang kreasi Grok-nya. Pengguna tersebut tidak segera menanggapi permintaan komentar.
Kreator konten ternama yang mengenakan hijab dan memposting gambar di X juga menjadi sasaran dalam balasan terhadap postingan mereka, dengan pengguna meminta Grok untuk menghapus penutup kepala mereka, menampilkan mereka dengan rambut terlihat, dan mengenakan mereka berbagai jenis pakaian dan kostum. Dalam pernyataan yang dibagikan kepada WIRED, Council on American‑Islamic Relations (CAIR), kelompok advokasi dan hak sipil Muslim terbesar di AS, menghubungkan tren ini dengan sikap permusuhan terhadap “Islam, Muslim, dan penyebab politik yang didukung luas oleh Muslim, seperti kebebasan Palestina.” CAIR juga menyerukan Elon Musk, CEO xAI yang memiliki X dan Grok, untuk mengakhiri “penggunaan aplikasi Grok yang berkelanjutan untuk diduga melecehkan, ‘membuka cadar,’ dan membuat gambar eksplisit seksual perempuan, termasuk perempuan Muslim terkemuka.”
Deepfake sebagai bentuk pelecehan seksual berbasis gambar telah mendapat perhatian jauh lebih besar dalam beberapa tahun terakhir, terutama di X, seiring contoh media eksplisit seksual dan bersifat sugestif yang menargetkan selebriti berulang kali menjadi viral. Dengan diperkenalkannya kemampuan penyuntingan foto AI otomatis melalui Grok, di mana pengguna dapat dengan mudah menandai chatbot dalam balasan pada postingan yang berisi media perempuan dan gadis, bentuk pelecehan ini telah melonjak tajam. Data yang dikompilasi oleh peneliti media sosial Genevieve Oh dan dibagikan kepada WIRED menyatakan bahwa Grok menghasilkan lebih dari 1.500 gambar berbahaya per jam, termasuk foto membuka pakaian, membuatnya menjadi seksual, dan menambahkan ketelanjangan.