Iana Kunitsa/Moment via Getty
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
Intisari ZDNET
Penelitian baru menunjukkan chatbot AI sering mendistorsi berita. 45% dari tanggapan AI yang dianalisis ditemukan bermasalah. Para penulis memperingatkan konsekuensi politik dan sosial yang serius.
Sebuah studi baru yang dilakukan oleh European Broadcasting Union (EBU) dan BBC menemukan bahwa chatbot AI terkemuka secara rutin mendistorsi dan menyalahartikan berita. Organisasi-organisasi tersebut memperingatkan bahwa konsekuensinya bisa berupa erosi kepercayaan publik secara besar-besaran terhadap organisasi berita dan pada stabilitas demokrasi itu sendiri.
Meliputi 18 negara dan 14 bahasa, studi ini melibatkan jurnalis profesional yang mengevaluasi ribuan tanggapan dari ChatGPT, Copilot, Gemini, dan Perplexity tentang berita terkini berdasarkan kriteria seperti akurasi, sumber, dan diferensiasi fakta dari opini.
Para peneliti menemukan bahwa hampir setengah (45%) dari semua tanggapan yang dihasilkan oleh keempat sistem AI “memiliki setidaknya satu masalah signifikan,” menurut BBC, sementara banyak (20%) “mengandung masalah akurasi besar,” seperti halusinasi — yaitu, memalsukan informasi dan menyajikannya sebagai fakta — atau memberikan informasi yang sudah kedaluwarsa. Gemini milik Google memiliki kinerja terburuk dari semuanya, dengan 76% tanggapannya mengandung masalah signifikan, terutama terkait dengan sumber.
Implikasi
Studi ini tiba pada saat alat-alat AI generatif mulai menggerogoti mesin pencari tradisional sebagai gerbang utama banyak orang ke internet — termasuk, dalam beberapa kasus, cara mereka mencari dan terlibat dengan berita.
Berdasarkan Digital News Report 2025 dari Reuters Institute, 7% orang yang disurvei secara global mengatakan mereka sekarang menggunakan alat AI untuk tetap mendapat informasi terbaru tentang berita; angka itu membengkak menjadi 15% untuk responden di bawah usia 25 tahun. Namun, sebuah jajak pendapat Pew Research terhadap orang dewasa AS yang dilakukan pada bulan Agustus menemukan bahwa tiga perempat responden tidak pernah mendapatkan berita mereka dari chatbot AI.
Data terbaru lainnya telah menunjukkan bahwa meskipun sedikit orang yang sepenuhnya mempercayai informasi yang mereka terima dari fitur Google AI Overviews (yang menggunakan Gemini), banyak dari mereka jarang atau tidak pernah mencoba memverifikasi keakuratan tanggapan dengan mengklik tautan sumber yang menyertainya.
Penggunaan alat AI untuk terlibat dengan berita, ditambah dengan ketidakandalan alat-alat itu sendiri, dapat memiliki konsekuensi sosial dan politik yang serius, demikian peringatan EBU dan BBC.
Studi baru ini “secara meyakinkan menunjukkan bahwa kegagalan-kegagalan ini bukanlah insiden terisolir,” kata Direktur Media EBU dan Wakil Direktur Jenderal Jean Philip De Tender dalam sebuah pernyataan. “Ini bersifat sistemik, lintas batas, dan multibahasa, dan kami percaya ini membahayakan kepercayaan publik. Ketika orang tidak tahu harus percaya apa, mereka akhirnya tidak mempercayai apa pun sama sekali, dan hal itu dapat menghalangi partisipasi demokratis.”
Faktor video
Bahaya terhadap kepercayaan publik — terhadap kemampuan orang biasa untuk secara meyakinkan membedakan fakta dari fiksi — diperparah lagi oleh munculnya alat-alat AI pembuat video, seperti Sora milik OpenAI, yang dirilis sebagai aplikasi gratis pada bulan September dan diunduh satu juta kali hanya dalam lima hari.
Meskipun ketentuan penggunaan OpenAI melarang penggambaran orang yang masih hidup tanpa persetujuan mereka, pengguna dengan cepat menunjukkan bahwa Sora dapat diperintahkan untuk menggambarkan orang yang telah meninggal dan klip AI bermasalah lainnya, seperti adegan peperangan yang tidak pernah terjadi. (Video yang dihasilkan oleh Sora disertai dengan tanda air yang muncul di seluruh bingkai video yang dihasilkan, tetapi beberapa pengguna yang cerdik telah menemukan cara untuk mengeditnya.)
Video sejak lama dianggap baik dalam lingkaran sosial maupun hukum sebagai bentuk bukti tak terbantahkan yang terakhir bahwa suatu peristiwa benar-benar terjadi, tetapi alat-alat seperti Sora dengan cepat membuat model lama itu menjadi usang.
Bahkan sebelum kemunculan video hasil AI atau chatbot seperti ChatGPT dan Gemini, ekosistem informasi sudah terpecah-belah dan menjadi ruang gema oleh algoritma media sosial yang dirancang untuk memaksimalkan keterlibatan pengguna, bukan untuk memastikan pengguna menerima gambaran realita yang optimal akuratnya. Karena itu, AI generatif menambahkan bahan bakar ke api yang telah membara selama beberapa dekade.
Dulu dan Sekarang
Secara historis, mengikuti perkembangan berita terkini membutuhkan komitmen baik waktu maupun uang. Orang berlangganan koran atau majalah dan membacanya selama beberapa menit atau jam sekaligus untuk mendapatkan berita dari jurnalis manusia yang mereka percayai.
Model berita-via-AI yang sedang berkembang telah menghindari kedua hambatan tradisional tersebut. Siapa pun dengan koneksi internet sekarang dapat menerima ringkasan berita yang gratis dan mudah dicerna dengan cepat — bahkan jika, seperti yang ditunjukkan oleh penelitian baru EBU-BBC ini, ringkasan tersebut penuh dengan ketidakakuratan dan masalah besar lainnya.