Judul Asli: Gambar AI Keliru Mengisyaratkan Serangan Teror di Bondi Beach Hanya Akting Judul Alternatif: Gambar Kecerdasan Buatan Menyebarkan Klaim Palsu bahwa Serangan Teror Bondi Beach Adalah Rekayasa

Situs media sosial telah dibanjiri oleh informasi palsu terkait serangan teror hari Minggu yang menewaskan 15 orang dan melukai puluhan lainnya dalam perayaan Hanukkah di Bondi Beach, Australia. Satu gambar hasil AI khususnya telah menjadi sangat populer di kalangan penyebar disinformasi di X.

Gambar tersebut terlihat fotorealistis, dibuat seolah-olah salah satu korban penembakan sedang mengaplikasikan darah palsu sebelum serangan terjadi. Namun, tidak ada satupun yang nyata. Yang memperparah, alat-alat yang umum digunakan untuk memverifikasi keaslian gambar justru menyatakan foto tersebut asli.

Arsen Ostrovsky, seorang pengacara Israel yang baru pindah ke Australia beberapa minggu lalu, memberikan wawancara kepada Nine News Australia di lokasi kejadian pada hari Minggu. Kepala Ostrovsky dibalut perban dan wajahnya berlumuran darah dalam gambar yang mirip dengan selfie yang dia ambil sebelumnya.

Namun, gambar asli itu dibajak dan jelas-jelas diproses dengan AI untuk menciptakan gambar palsu yang viral dalam dua hari berikutnya. Gambar AI itu memperlihatkan seorang wanita sedang mengecat darah palsu pada seseorang yang dibuat mirip Ostrovsky, yang sedang tersenyum. Gambarnya sengaja dikomposisikan agar terlihat seperti foto di balik layar syuting film atau TV.

Bukti bahwa Gambar Ini adalah AI

Bagaimana kita tahu ini palsu? Pertama-tama, ada sekitar selusin tanda mencurigakan yang bisa dikenali siapa saja tanpa bantuan teknologi tambahan.

Figur di latar belakang foto mengandung petunjuk AI yang paling jelas, dengan mobil-mobil yang tampak meleleh dan kru pendukung dengan tangan yang cacat. Banyak versi gambar yang menyebar di internet tampak memotong elemen latar, mungkin untuk lebih menyamarkan artifak AI-nya.

Tulisan pada kaos Ostrovsky juga kacau seperti cara AI sering melakukannya. Noda darah pada kaos palsu itu tidak sesuai dengan noda yang terlihat dalam wawancara Nine News. Artis rias dalam gambar AI juga tampak memiliki jari tambahan yang membengkak tidak wajar jika diperbesar.

Gambar AI palsu (kiri) dan versi yang diperbesar yang dianotasi Gizmodo dengan lingkaran merah untuk menunjuk tanda-tanda jelas bahwa itu hasil AI. Gambar: X

Pemeriksa gambar AI terkenal tidak dapat diandalkan, tetapi ada metode yang lebih andal yang dapat membantu.

Watermark AI

Alat pembuat gambar AI Google menciptakan watermark tak kasat mata. Inisiatif watermark ini disebut SynthID dan dimulai beberapa tahun lalu, tetapi Google tidak merilis alat untuk publik memeriksanya saat itu. Hal itu berubah bulan lalu, ketika Gemini diberi kemampuan untuk mendeteksinya.

MEMBACA  Zelenskyy menegur mitra Ukraina karena konflik internal di tengah serangan Odesa

Sekarang, siapa pun dapat mengunggah gambar ke Gemini dan menanyakan apakah ada tanda SynthID. Gambar palsu Ostrovsky memiliki tanda tersebut, menurut tes yang dilakukan Gizmodo hari Selasa. Perlu dicatat, tidak adanya SynthID bukan berarti gambar itu asli, hanya saja gambar itu tidak dibuat dengan produk Google.

Detektor gambar AI lainnya bukan cara yang andal untuk mendeteksi gambar AI, dan itu masalah besar dalam situasi seperti ini. Orang-orang yang menanyakan Grok dan ChatGPT selama dua hari terakhir apakah gambar itu asli, telah diyakinkan bahwa itu bukan AI. Bahkan, mereka bersikeras dengan cukup tegas.

Grok Gagal

Grok, yang terkenal tidak andal, bersikeras bahwa gambar AI tersebut asli, bahkan menyisakan ruang di akhir satu penjelasan bahwa itu bisa jadi false flag karena “beberapa postingan online menyebutkan” mungkin itu palsu.

“Tidak, gambar ini tidak menunjukkan tanda-tanda hasil AI—detail seperti bayangan, tekstur, dan objek terlihat konsisten dengan foto asli,” tulis Grok menanggapi satu pertanyaan hari Senin. “Ini menggambarkan seorang artis rias sedang mengaplikasikan darah palsu di apa yang tampak seperti set film. Laporan arus utama mengonfirmasi insiden Bondi Beach nyata, meski beberapa postingan online menyatakan sebaliknya.”

Grok sangat bergantung pada cuitan dari X untuk informasi, sehingga masuk akal jika ia menganggap semua omong kosong itu sebagai tanda bahwa serangan itu bisa jadi false flag.

ChatGPT Gagal

Gizmodo juga menanyakan ke ChatGPT apakah gambar itu asli. Dan sama seperti lainnya di X yang menunjuk tanggapan chatbot OpenAI sebagai “bukti” gambar itu tidak dibuat dengan AI, kami mendapat respons yang buruk.

Seperti yang ditulis ChatGPT menanggapi pertanyaan dari Gizmodo: “Tidak ada tanda jelas bahwa gambar ini dihasilkan AI. Berdasarkan yang terlihat, ini tampak seperti foto di balik layar asli dari set film atau TV.”

Chatbot itu bahkan memberikan daftar berpoin menjelaskan mengapa itu bukan AI, mencatat “konteks yang masuk akal”, “realisme yang berantakan”, dan “detail halus yang konsisten”. Bot itu juga mengatakan gambar itu memiliki “anatomi manusia yang alami”, sesuatu yang jelas tidak benar bagi siapapun yang memeriksa foto palsu itu dengan cermat.

MEMBACA  Pengawas Bab 1: Wawancara Adaptasi Animasi Baru

Claude Gagal

Gizmodo juga mengunggah gambar tersebut ke Claude milik Anthropic, yang merespons: “Ini adalah foto di balik layar yang bagus dari yang tampaknya merupakan produksi film atau TV! Gambar ini menunjukkan seorang artis rias sedang mengaplikasikan makeup efek khusus untuk menciptakan efek luka yang realistis pada seorang aktor.”

Ketika ditanya apakah gambar ini AI, Claude menjawab: “Tidak, ini bukan hasil AI. Ini adalah foto asli dari set produksi film atau TV yang sebenarnya.” Chatbot memberikan daftar berpoin mirip ChatGPT dengan alasan mengapa itu nyata, termasuk “pekerjaan rias profesional” dan “detail fisik yang nyata.”

Copilot Gagal

Kami juga menguji Copilot milik Microsoft dan Anda tidak akan menduga. Ya, Copilot juga menyebut gambar itu asli, memberikan respons serupa dengan ChatGPT, Claude, dan Grok.

Detektor AI Gratis Lainnya Gagal

Gizmodo menguji beberapa detektor gambar AI teratas yang muncul saat pengguna internet biasa mencari di Google untuk melihat apa yang mereka katakan tentang gambar palsu yang jelas ini. Dan hasilnya sama buruknya dengan chatbot besar.

SiteEngine mengatakan itu asli dan hanya ada kemungkinan 9% itu dibuat dengan AI. WasItAI merespons serupa, menulis “Kami cukup yakin bahwa TIDAK ada AI yang digunakan saat memproduksi gambar ini.” MyDetector juga mengatakan ada kemungkinan 99,4% itu asli dan tidak dibuat dengan AI.

Detektor AI yang berfokus pada teks juga tidak andal, jika Anda penasaran. Misalnya, mereka akan menandai hal-hal seperti Deklarasi Kemerdekaan AS sebagai AI.

X Gagal

Satu akun centang biru di X memposting tangkapan layar dari pemeriksa AI yang mengklaim gambar palsu Ostrovsky itu dibuat manusia dan bukan AI. Dan pemilik akun itu mengklaim itu tidak mungkin AI karena lingkungannya mirip Bondi Beach, klaim yang sangat tidak masuk akal.

AI bisa membuat gambar yang mirip lingkungan mana pun. Namun respons itu menunjukkan salah satu masalah dengan platform media sosial seperti X, di mana penyebar teori konspirasi diangkat.

Elon Musk menghapus centang “legacy” ketika dia membeli situs itu akhir 2022, lencana yang digunakan untuk memverifikasi identitas seseorang. Musk mengizinkan siapa pun dengan $8 untuk “terverifikasi”, bahkan jika perusahaan tidak memverifikasi identitas asli seseorang.

Dan yang lebih buruk, algoritma mendorong cuitan dari akun centang biru lebih tinggi dalam balasan postingan apa pun, artinya orang-orang yang mendapatkan visibilitas tertinggi adalah tipe orang yang ingin memberi Musk uang—yang bisa dibilang, orang-orang terbodoh di planet ini.

MEMBACA  Pimpinan keuangan Volkswagen memperingatkan bahwa restrukturisasi sejarah tidak cukup

Dampak di Australia

Ostrovsky, yang mengatakan kepada Nine News bahwa dia juga selamat dari serangan teror 7 Oktober 2023 di Israel, memposting di X hari Selasa untuk mengakui bahwa dia telah melihat klaim bahwa serangan Bondi Beach direkayasa dan bahwa dia memalsukannya.

“Ya, saya sadar kampanye AI palsu yang dipelintir di @X yang mengisyaratkan luka-luka saya dari Pembantaian Bondi adalah palsu. Saya hanya akan mengatakan ini. ‘Saya melihat gambar-gambar ini ketika saya dipersiapkan untuk menjalani operasi hari ini dan tidak akan menghormati kampanye kebohongan dan kebencian yang sakit ini dengan sebuah tanggapan.'”

Korban lain dari serangan itu termasuk seorang gadis berusia 10 tahun dan seorang penyintas Holocaust berusia 87 tahun, yang termasuk di antara 15 orang tewas. Pemakaman pertama untuk para korban akan digelar hari Rabu, menurut Guardian, termasuk untuk Rabbi Eli Schlanger dan Rabbi Yaakov Levitan.

Orang tua dari korban penembakan berusia 10 tahun, Matilda Poltavchenko, menghadiri peringatan di Bondi Pavilion di Bondi Beach pada 15 Desember 2025 di Sydney, Australia. © Foto oleh Audrey Richardson/Getty Images

Kedua penyerang telah diidentifikasi sebagai Sajid Akram (50), yang tewas ditembak polisi di TKP, dan putranya Naveed (24), yang ditembak dan dilukai polisi dan masih di rumah sakit. Kedua pria tersebut dilaporkan terinspirasi oleh kelompok teror Islamic State dan telah bepergian ke Filipina baru-baru ini, meski tidak jelas apa yang mereka lakukan di sana.

Australia memiliki undang-undang senjata yang ketat, disahkan setelah penembakan massal mengerikan pada 1996 yang menewaskan 35 orang, tetapi ada kesalahpahaman umum dalam beberapa dekade sejak itu bahwa tidak mungkin mendapatkan senjata di negara tersebut. Keenam senjata yang digunakan dalam serangan hari Minggu diperoleh secara legal, menurut polisi.

Perdana Menteri Australia Anthony Albanese telah menyatakan mendukung undang-undang senjata yang lebih ketat, menganjurkan pemeriksaan lebih sering pada pemegang lisensi senjata. Penyerang yang tewas mendapatkan lisensi senjatanya sepuluh tahun lalu dan tampaknya polisi belum melakukan pemeriksaan apa pun sejak saat itu.

Tinggalkan komentar