Wafatnya Charlie Kirk Tunjukkan Keterbatasan Chatbot AI dalam Berita Mendadak

Hanya dalam hitungan jam, internet telah dipenuhi oleh berbagai teori konspirasi seputar pembunuhan Charlie Kirk — yang meninggal kemarin setelah ditembak dalam sebuah acara publik di Utah — sebagaimana dilaporkan berbagai sumber.

Komentator sayap kanan jauh itu, yang kerap terlibat dalam debat sengit mengenai imigrasi, kontrol senjata, dan aborsi di kampus-kampus universitas, tewas saat sedang dalam tur universitas bersama kelompok medianya yang konservatif, Turning Point USA. Organisasi tersebut telah menghabiskan satu dekade terakhir membangun koalisi pemuda konservatif di universitas-universitas terkemuka dan menjadi sangat terkait dengan gerakan nasionalis MAGA dan Presiden Trump. Sejak laporan awal insiden ini bermunculan dari lembaga berita terpercaya maupun akun pembaruan budaya pop, status Kirk masih hidup atau apakah penembaknya telah ditangkap masih belum jelas.

Akan tetapi, para penyelidik internet dari kedua sisi spektrum politik sudah bersiap di media sosial, berusaha mengidentifikasi nama-nama individu dalam kerumunan dan mencoba ilmu forensik digital dengan memperbesar video grafis Kirk tertembak. Beberapa pihak menduga bahwa pengawal Kirk melakukan sandi tangan tepat sebelum tembakan meletus. Yang lain klaim pembunuhan ini sebenarnya adalah trik pengalihan untuk mengalihkan perhatian dari komunikasi Trump yang terungkap dengan pedagang seks almarhum Jeffrey Epstein.

Yang memperparah situasi adalah chatbot bertenaga AI, yang telah mengambil alih platform media sosial baik sebagai asisten robot terintegrasi maupun sebagai akun spam AI yang otomatis membalas pengguna yang frustasi.

Dalam satu contoh, menurut pemantau media dan misinformasi NewsGuard, sebuah akun X bernama @AskPerplexity, yang tampaknya terkait dengan perusahaan AI tersebut, memberi tahu seorang pengguna bahwa klaim awalnya bahwa Charlie Kirk meninggal sebenarnya adalah misinformasi dan bahwa Kirk masih hidup. Pembalikan ini terjadi setelah pengguna meminta bot tersebut menjelaskan bagaimana reformasi senjata yang masuk akal dapat menyelamatkan nyawa Kirk. Tanggapan tersebut telah dihapus sejak laporan NewsGuard diterbitkan.

MEMBACA  Perubahan iklim menghapus peningkatan sebelumnya dalam kualitas udara — kebakaran sebagian besar bertanggung jawab

“Akun Perplexity Bot tidak boleh disamakan dengan akun Perplexity,” jelas Perplexity dalam sebuah pernyataan kepada Mashable. “AI yang akurat adalah teknologi inti yang kami bangun dan pusat dari pengalaman di semua produk kami. Karena kami sangat serius dengan topik ini, Perplexity tidak pernah mengklaim 100% akurat. Tapi kami mengklaim sebagai satu-satunya perusahaan AI yang mengerjakannya tanpa henti sebagai fokus utama kami.”

Bot AI Elon Musk, Grok, secara keliru mengonfirmasi kepada seorang pengguna bahwa video itu adalah video ‘meme’ yang diedit, setelah mengklaim bahwa Kirk pernah “menghadapi kerumunan yang lebih kasar” di masa lalu dan akan “dengan mudah selamat dari yang satu ini.” Chatbot kemudian bersikeras, menulis: “Charlie Kirk sedang berdebat, dan efeknya membuatnya terlihat seperti ‘ditembak’ di tengah kalimat untuk efek komedi. Tidak ada bahaya nyata; dia baik-baik saja dan aktif seperti biasa.” Pakar keamanan pada saat itu mengatakan bahwa videonya asli.

Dalam kasus lain yang didokumentasikan NewsGuard, pengguna membagikan tanggapan chatbot untuk mengonfirmasi teori konspirasi mereka sendiri, termasuk yang mengklaim pembunuhannya direncanakan oleh aktor asing dan bahwa kematiannya adalah pembunuhan yang direncanakan Demokrat. Satu pengguna membagikan tanggapan Google yang dihasilkan AI yang mengklaim Kirk ada dalam daftar target musuh Ukraina. Grok memberitahu pengguna X lain bahwa CNN, NYT, dan Fox News semua telah mengonfirmasi seorang Demokrat terdaftar terlihat di TKP dan adalah tersangka yang dikonfirmasi — tidak ada yang benar dari semua itu.

“Sebagian besar kueri yang mencari informasi tentang topik ini mengembalikan respons yang berkualitas tinggi dan akurat. Ringkasan AI spesifik ini melanggar kebijakan kami dan kami sedang mengambil tindakan untuk mengatasi masalah tersebut,” seorang juru bicara Google mengatakan kepada Mashable.

Mashable juga menghubungi perusahaan induk Grok, xAI, untuk mendapatkan komentar.

MEMBACA  "Google Chrome Tambahkan Ulasan Toko Online untuk Bantu Anda Tahu Keasliannya" (Note: The translation maintains the original meaning while adapting to natural Indonesian phrasing.)

Chatbot tidak bisa dilatih sebagai jurnalis

Meskipun asisten AI mungkin membantu untuk tugas sehari-hari yang sederhana — mengirim email, membuat reservasi, membuat daftar tugas — kelemahan mereka dalam melaporkan berita adalah liabilitas bagi semua orang, menurut para pemantau dan pemimpin media.

Algoritma tidak meminta komentar.
– McKenzie Sadeghi, NewsGuard

“Kita hidup di masa-masa sulit, dan berapa lama lagi sebelum headline yang didistorsi AI menyebabkan bahaya dunia nyata yang signifikan?” tanya Deborah Turness, CEO BBC News and Current Affairs, dalam sebuah blog dari awal tahun ini.

Salah satu masalahnya adalah chatbot hanya mengulang apa yang dikatakan kepada mereka, dengan pertimbangan minimal; mereka tidak dapat melakukan pekerjaan yang dilakukan jurnalis manusia sebelum menerbitkan berita terkini, seperti menghubungi pejabat setempat dan memverifikasi gambar atau video yang menyebar cepat secara online. Sebaliknya, mereka menyimpulkan jawaban dari apa pun yang ada di ujung jari mereka. Itu signifikan dalam dunia berita terkini, di mana bahkan manusia dikenal sering salah. Dibandingkan dengan kotak hitam AI, sebagian besar ruang redaksi memiliki checks and balances, seperti editor yang memeriksa ulang cerita sebelum diterbitkan.

Di sisi lain, chatbot menawarkan interaksi personal dan terisolasi serta terkenal sikofan, melakukan segala cara untuk menyenangkan dan mengonfirmasi kepercayaan pengguna.

“Penelitian kami menemukan bahwa ketika pelaporan yang andal tertinggal, chatbot cenderung memberikan jawaban yang percaya diri tetapi tidak akurat,” jelas McKenzie Sadeghi, peneliti NewsGuard dan penulis analisis tersebut. “Selama peristiwa berita terkini sebelumnya, seperti percobaan pembunuhan terhadap Donald Trump tahun lalu, chatbot akan memberi tahu pengguna bahwa mereka tidak memiliki akses ke informasi real-time yang terbaru.” Tapi sejak saat itu, dia menjelaskan, perusahaan AI telah meningkatkan level bot mereka, termasuk memberi mereka akses ke berita real-time saat itu terjadi.

“Alih-alih menolak menjawab, model sekarang mengambil dari informasi apa pun yang tersedia online pada saat itu, termasuk situs web dengan keterlibatan rendah, postingan sosial, dan konten yang dihasilkan AI yang disebar oleh aktor jahat. Akibatnya, chatbot mengulang dan memvalidasi klaim palsu selama peristiwa berisiko tinggi dan bergerak cepat,” katanya. “Algoritma tidak meminta komentar.”

MEMBACA  Hasil langsung pemilihan umum Afrika Selatan 2024: Berdasarkan angka | Berita Pemilihan Umum

Sadeghi menjelaskan bahwa chatbot memprioritaskan suara paling keras di ruangan itu, bukan yang benar. Potongan informasi yang lebih sering diulang diberikan konsensus dan otoritas oleh algoritma bot, “memungkinkan kebohongan menenggelamkan pelaporan otoritatif yang tersedia terbatas.”

The Brennan Center for Justice di NYU, sebuah institut kebijakan dan hukum nonpartisan, juga melacak peran AI dalam pengumpulan berita. Organisasi tersebut telah menyuarakan alarm serupa tentang dampak AI generatif pada literasi berita, termasuk perannya dalam memberdayakan apa yang dikenal sebagai “Liar’s Dividend” — atau manfaat yang diperoleh oleh individu yang menghasut kebingungan dengan mengklaim informasi nyata adalah palsu. “Pembohong” semacam itu berpendapat bahwa kebenaran tidak mungkin ditentukan karena, seperti yang kini banyak diperdebatkan, gambar atau video apa pun dapat dibuat oleh AI generatif.

Bahkan dengan risiko yang melekat, lebih banyak individu beralih ke AI generatif untuk berita karena perusahaan terus mengintegrasikan teknologi ini ke dalam umpan media sosial dan mesin pencari. Menurut survei Pew Research, individu yang menemukan hasil pencarian yang dihasilkan AI lebih kecil kemungkinannya untuk mengklik sumber tambahan daripada mereka yang menggunakan mesin pencari tradisional. Sementara itu, perusahaan teknologi besar telah mengurangi tim pemeriksa fakta manusia mereka demi catatan yang dipantau komunitas, meskipun ada kekhawatiran luas tentang misinformasi yang tumbuh dan dampak AI pada berita dan politik. Pada bulan Juli, X mengumumkan sedang menjalankan program percontohan yang memungkinkan chatbot menghasilkan catatan komunitas mereka sendiri.

Topik
Social Good
Social Media