Saeed Ismail adalah orang sungguhan. Namun, meskipun ia terus memposting bukti-bukti online, banyak orang tetap menyebutnya palsu.
Pemuda 22 tahun ini telah bertahan hampir dua tahun di tengah perang di Gaza, sementara Israel melanjutkan serangan yang telah menewaskan setidaknya 57.000 orang dan membuat 2 juta penduduk wilayah itu di ambang kelaparan. Saeed menggalang dana secara online untuk memberi makan keluarganya. Namun, banyak pengguna media sosial yakin bahwa dia tidak nyata. Mereka percaya bahwa ia adalah kreasi AI yang diciptakan oleh penipu untuk mendapatkan sumbangan melalui platform crowdfunding dari orang-orang yang bermaksud baik. Di era di mana video dan gambar AI membanjiri ruang digital, wajar jika sebagian orang menjadi skeptis.
Kontroversi bermula dari foto yang diunggah Mei lalu, menampilkan Saeed meminta bantuan. Pengguna platform Bluesky mulai menuduhnya palsu. Sebuah akun anonim bernama Rev. Howard Arson memimpin tuduhan terhadap Saeed, dengan menunjuk adanya kata-kata aneh di selimutnya.
Arson menyoroti dua kata di selimut tersebut: “pealistic” dan “spfcation”, yang sepertinya salah eja dari “realistic” dan “specification”. Ia menduga ini bukti bahwa gambar itu dibuat dengan AI, hasil dari permintaan agar alat kecerdasan buatan membuat selimut yang realistis.
Foto: Saeed Ismail
Saeed mengunggah beberapa foto dan video untuk membuktikan bahwa selimut itu nyata, tapi tuduhan tak kunjung reda. Ia mengatakan kepada Gizmodo bahwa ibunya membeli selimut itu di pasar dekat rumahnya di Gaza utara sebelum perang: “Saat evakuasi, aku membawanya.”
Banyak yang yakin bahwa video AI sudah begitu canggih sehingga Saeed bisa saja makhluk buatan—seperti yang dikatakan Arson melalui pesan langsung ke Gizmodo. Arson, yang punya lebih dari 20.000 pengikut di Bluesky, mendapat banyak perhatian atas klaimnya, membantu penyebarannya di jejaring sosial yang relatif kecil itu. Saeed bingung karena akun itu terlihat jauh lebih berpengaruh daripada dirinya.
“Ketika aku buka Bluesky, banyak yang sudah percaya aku penipu, terutama karena status orang yang mengunggah tentang aku,” kata Saeed lewat WhatsApp. “Dia dianggap tepercaya, sementara aku tidak punya pengikut atau kredibilitas yang sama.”
Gizmodo memverifikasi keberadaan Saeed sebagai orang sungguhan melalui berbagai cara, termasuk panggilan video di mana ia berkeliling ruangan dan menunjukkan pemandangan dari jendelanya. Ia juga memberikan ID Palestina serta foto dan video lokasinya. Saeed sebelumnya menggalang dana lewat PayPal, tapi sekarang menggunakan GoFundMe melalui kampanye yang dijalankan seseorang tepercaya di Prancis yang mengirimkan uangnya.
“Kami mengandalkan saluran ini karena tidak ada pilihan lain,” jelasnya.
GoFundMe tidak beroperasi di Gaza, tapi mengizinkan pengguna di negara lain membuat penggalangan dana untuk penduduk di luar negeri. Platform ini memiliki panduan tentang cara melakukannya dengan aman. Tim GoFundMe memeriksa dokumen seperti ID dan kwitansi untuk memastikan dana sampai ke penerima. Seorang juru bicara GoFundMe mengatakan kepada Gizmodo bahwa kampanye Saeed telah diverifikasi.
“Kami bekerja tanpa henti untuk memastikan bantuan kemanusiaan sampai dengan cepat dan aman kepada yang membutuhkan,” ujarnya.
Saeed Ismail memegang selimut yang memicu kontroversi di Bluesky tentang apakah ia dibuat oleh AI, difoto di Gaza pada 29 Mei 2025. Foto: Saeed Ismail
Pemilik akun Arson menolak memberikan nama asli, apalagi membuktikan identitasnya seperti Saeed.
“Sayangnya, aku tidak ingin klaim yang tidak bisa kubuktikan terkait namaku,” tulis Arson lewat pesan di Bluesky.
Arson mengakui bahwa AS mendukung serangan Israel terhadap Gaza, tapi ia tetap meragukan keaslian Saeed dan frustasi karena AI sudah sangat maju hingga ia bingung harus percaya apa.
“Aku tidak tahu bagaimana rasanya berada di sana. Tapi ini membuat mustahil menilai apakah sumbangan benar-benar membantu,” tulisnya.
Ia menyadari bahwa persepsinya mungkin bias karena terlalu banyak melihat gambar palsu buatan AI.
“Orang bisa salah karena separuh yang mereka lihat adalah sintetis, separuh nyata, dan mengira distribusinya selalu 50/50,” kata Arson.
Ia juga mencontohkan foto lain yang sebelumnya dikira palsu, tapi ternyata asli. Gambar tersebut memperlihatkan seorang perempuan dan dua anaknya duduk di antara puing-puing Gaza. Ketiganya mengenakan sandal, meski kaki kiri anak laki-laki itu dibalut gips putih. Namun, sandal sang ibulah yang mencurigakan perhatian.
Sandal itu memiliki logo kepala panda, disertai tulisan aneh: “HAPPY LUCKY rlorE DNUI”. Hal semacam ini pasti langsung memicu tanda tanya bagi siapa pun yang waspada terhadap gambar buatan AI yang beredar di internet. Yang anehnya, sandal itu nyata.
Foto diambil di Gaza, menampilkan Sahar AlAjrami bersama dua anaknya, dengan sandal bertulisan ganjil yang sempat membuat orang mengira gambar tersebut hasil AI. (Foto: Sahar AlAjrami)
Investigasi menemukan sandal serupa dijual di Facebook lewat toko online di Benghazi, Libya, pada Juni 2022. Sandal itu tidak hanya tersedia untuk dibeli—membuktikan keasliannya—tetapi juga hadir dalam berbagai warna.
Gizmodo melakukan panggilan video dengan Sahar untuk memverifikasi keasliannya. Karena bahasa Inggrisnya terbatas, adiknya, Ahmed, menerjemahkan. Mereka bahkan menunjukkan sandal itu di tengah malam dengan penerangan ponsel. GoFundMe mengonfirmasi kampanye penggalangan dana untuk Sahar (yang berjuang menghidupi anak-anaknya) dan Ahmed sudah diverifikasi.
Tidak jelas siapa yang mendesain sandal dengan tulisan Inggris kacau itu, tetapi sandal itu nyata. Perlu dicatat, Juni 2022 mendahului era generasi gambar AI yang baru tersedia luas pada akhir 2022. ChatGPT pun baru diluncurkan November 2022.
(Sandal dijual di Facebook, Libya, Juni 2022. Foto: Facebook)
Sahar paling khawatir pada Odai, anaknya yang tertembak kaki oleh drone Israel. Alih-alih fokus pada lukanya, netizen malah ribut tentang sandalnya. Sahar berharap bisa membawanya ke Mesir untuk perawatan, tapi saat ini tidak mungkin karena Israel menutup semua penyeberangan.
Gazawi seperti Sahar dan Saeed kesulitan membuktikan identitas di tengah skeptisisme media sosial. Bluesky kerap dituduh memblokir akun warga Gaza yang dicurigai sebagai scammer atau bot. Contohnya Hany Abu Hilal, guru bahasa Inggris dengan tiga anak yang sudah diverifikasi lewat KTP Palestina dan panggilan video. Ia memulai kampanye di Chuffed, tapi akun Bluesky-nya terus diblokir karena dianggap spam.
“Rumahku terbakar lalu hancur total,” katanya. Kini ia tinggal di tenda di Khan Younis yang tak melindungi dari panas atau dingin. Hany frustasi karena tak bisa meminta bantuan di platform yang kerap menghapus akun Palestina.
“Harga makanan melambung. Aku tak bisa beli roti untuk anak-anak karena tidak punya uang,” ujarnya. Israel sempat memberlakukan blokade total selama dua bulan. Meski sudah dilonggarkan, pasokan tetap minim. Menurut CBC, 549 orang tewas dan 4.000 luka-luka saat mencoba mendapatkan bantuan dari Gaza Humanitarian Foundation (GHF)—organisasi AS yang terdaftar di kantor kosong di Delaware. Laporan AP menyebut kontraktor AS juga terlibat penembakan terhadap warga yang ingin mendapat bantuan.
Hany sudah mengungsi 12 kali sejak perang dimulai. Mayoritas warga Gaza terpaksa meninggalkan rumah, sementara Israel berencana “menaklukkan” wilayah itu sepenuhnya.
Di Bluesky—yang populer sejak Elon Musk membeli Twitter—Molly Shah, aktivis AS di Berlin, berperan besar menyuarakan penderitaan warga Gaza. Ia kerap mendengar keluhan tentang akun yang diblokir atau dituduh penipu.
“Setiap hari saya bicara dengan orang yang mengalami hal-hal mengerikan, tapi percakapan paling menyedihkan justru tentang akun yang hilang atau dicap scammer,” kata Molly.
(Warga Palestina mencari barang yang bisa digunakan di reruntuhan kamp pengungsian Al-Shati, Gaza, 26 Juni 2025. © Foto oleh Saeed M. M. T. Jaras/Anadolu via Getty Images) Versi Bahasa Indonesia (Tingkat C1) dengan Beberapa Kesalahan/Typo:
“Kurang lebih itu karena orang-orang di Gaza hampir kehilangan semuanya, tapi satu hal yang masih mereka punya adalah identitasnya, dan larangan atau tuduhan palsu bahkan menyerang hal itu.”
Molly sudah menemukan akun palsu di Bluesky dan mengakui adanya penipu yang mencoba memanfaatkan situasi. Tapi mereka minoritas, dan ia telah berbagi hal-hal yang perlu diwaspadai, termasuk orang yang cuma pakai foto berita untuk kampanye penggalangan dana.
Bluesky memberi tahu Gizmodo bahwa mereka paham warga Gaza butuh platform untuk berbagi pengalaman dan cari dukungan, menyebut perusahaan “berkomitmen memastikan suara mereka terdengar di Bluesky.” Tapi platform ini bilang tim moderasi harus “membedakan advokasi asli dan perilaku tidak autentik yang terkoordinasi.”
“Dalam beberapa kasus, investigasi kami menemukan jaringan di mana satu orang mengoperasikan ratusan akun dengan pesan massal, komentar sama di percakapan tak berhubungan, dan follow massal—perilaku yang mengganggu pengalaman pengguna, apa pun tujuannya,” kata Aaron Rodericks, Kepala Kepercayaan & Keamanan Bluesky, lewat email.
“Saat kami identifikasi pola ini, kami beri peringatan dan kesempatan untuk mengubah cara sebelum akun ditangguhkan. Di kasus lain, aktor jahat bikin banyak akun buat sasaran pengguna dan manfaatkan simpati terhadap krisis,” lanjut Rodericks.
Perusahaan media sosial itu bilang keputusan moderasi “tidak selalu sempurna, makanya kami punya proses banding,” tapi pengguna harus fokus mengelola satu akun yang patuh panduan komunitas. Rodericks mengatakan mereka akan “terbitkan panduan lebih lanjut untuk bantu akun advokasi tetap sesuai aturan sambil menyampaikan pesan,” tapi tidak menjawab pertanyaan Gizmodo tentang kapan panduan itu keluar.
Seorang wanita memegang tubuh yang terlihat seperti anak kecil di kamar mayat Rumah Sakit Nasser, Khan Yunis, Gaza pada 26 Juni 2025, setelah serangan Israel menghantam wilayah permukiman. © Foto oleh Hani Alshaer/Anadolu via Getty Images
Bahkan jika warga AS temukan kampanye galang dana yang dipercaya, sebagian khawatir dengan reaksi pemerintah AS jika mereka menyumbang ke warga Gaza, mengingat kecenderungan otoriter dan anti-Muslim pemerintahan Trump. Trump sebelumnya bilang Gaza harus dibersihkan dari orang Palestina dan AS harus kuasai wilayah itu. Dan itu berdampak pada tindakan menakutkan di dalam negeri AS.
Trump menerapkan kebijakan rasis dan sering ilegal yang menarget mahasiswa asing, terutama yang protes perang Israel di Gaza. Rumeysa Ozturk, warga Turki berusia 30 tahun dan mahasiswa pascasarjana di Tufts University, diseret dari jalan di Massachusetts oleh agen bertopeng dalam video viral yang terkenal Maret lalu. “Kejahatan” Ozturk adalah menulis opini di koran kampus yang membela prinsip kebebasan berpendapat. Tapi tidak ilegal bagi warga AS untuk menyumbang ke kampanye bagi warga biasa yang cuma ingin bertahan di Gaza. Setidaknya, belum.
Masalahnya—yang selalu kita bahas—adalah semakin sulit membedakan penipu. Alat pembuat video AI terbaru Google, Veo 3, mengubah segalanya dan memperkeruh situasi. Saat Time melaporkan soal alat ini, mereka bikin video warga Gaza palsu menerima bantuan USAID—yang mengarah ke tuduhan palsu di sisi lain perang ini.
Yayasan Kemanusiaan Gaza (GHF), didukung Israel dan AS, dituduh menjalankan organisasi bantuan tidak aman dan tidak efektif yang menewaskan ratusan orang. Tapi mereka juga dituduh membuat video palsu. Salah satu video GHF yang disebar ke media sayap kanan seperti Daily Wire disebut palsu saat dirilis akhir Mei. Siapa pun yang lihat bisa tahu ada kualitas tidak wajar mirip AI yang sulit dijelaskan.
Sumber di salah satu lokasi distribusi Gaza bilang ke saya Hamas pasang penghalang untuk cegah warga dapat bantuan.
Mereka berhasil tembus dan berteriak “terima kasih Amerika” saat sampai di lokasi.
— Kassy Akiva (@KassyAkiva) 27 Mei 2025
Ditanya via email, juru bicara GHF yang tidak disebutkan namanya mengatakan video itu asli, mengirim tangkapan layar metadata dari iPhone 15 Pro yang menunjukkan lokasi pengambilan di Gaza. Awalnya GHF mau izinkan Gizmodo berbicara dengan kameramen, tapi tidak kirim file video mentah yang kami minta dan tidak pernah hubungkan kami dengan kameramen yang “sedang dalam penerbangan kembali ke AS.” GHF memberikan pernyataan kontradiktif soal aktivitasnya, dengan kepala organisasi Johnnie Moore awalnya bilang ke BBC tidak ada korban tewas dekat lokasi distribusi sebelum membantah beberapa menit kemudian.
Bagaimana orang bisa tahu apa yang nyata dalam situasi seperti ini? Pertanyaan ini sulit dijawab bahkan sebelum ada pembuat gambar AI. Gizmodo telah membongkar foto viral lebih dari satu dekade, dan banyak hoaks sudah ada sebelum Photoshop ditemukan. Tapi AI mengubah segalanya. Gambar dan video AI akan makin canggih.
Masalah lain adalah Israel tidak izinkan jurnalis asing masuk Gaza. IDF kadang mengawal jurnalis TV untuk waktu singkat, tanpa mengizinkan komunikasi dengan warga Palestina biasa, yang jelas-jelas jadi acara media yang sangat dikontrol. Bahkan jika warga AS punya dana untuk terbang ke Gaza, mereka tidak diizinkan. Jadi orang-orang dipaksa untuk mencari cara sendiri dalam menentukan apa yang nyata atau hanya menyerah dan menganggap terlalu sulit untuk memverifikasi.
Tapi masyarakat di Gaza terus menderita tanpa ada tanda-tanda berakhir. Infrastruktur kesehatan di Gaza sudah hancur total, dengan rumah sakit yang menjadi "medan perang," seperti yang diungkapkan oleh para ahli di PBB. Korban yang ditimbulkan sangat besar, terutama anak-anak yang paling terdampak. Lebih dari 50.000 anak tewas atau terluka sejak Oktober 2023, menurut data dari UNICEF. Peneliti pun memperkirakan jumlah korban sebenarnya jauh lebih tinggi daripada angka resmi yang saat ini mencapai lebih dari 58.000.
Namun, masih ada yang menyebut kekejaman ini palsu. Ada banyak akun di X, yang berubah jadi platform ekstrem sayap kanan setelah dibeli Elon Musk akhir 2022, yang khusus menyebarkan narasi "Pallywood," plesetan dari Hollywood, klaim bahwa rakyat Gaza memalsukan kejahatan perang yang terjadi pada mereka.
Pada akhirnya, tidak ada solusi mudah. Menghindari penipuan bisa sulit karena AI menyebar di seluruh sudut internet. Tapi bertahan dari genosida jauh, jauh lebih berat.