Analisis Menyedihkan: Kecerdasan Buati Menggerus Kredibilitas Penerbitan Ilmiah

Hampir tak terbayangkan betapa pentingnya dampak arXiv, repositori sains yang, untuk beberapa waktu, hampir sendirian membenarkan eksistensi internet. ArXiv (dilafalkan “archive” atau “Arr-ex-eye-vee” tergantung pada siapa Anda bertanya) adalah sebuah repositori pra-cetak, di mana, sejak 1991, para ilmuwan dan peneliti mengumumkan “hei, saya baru saja menulis ini” kepada dunia sains. Tinjauan sejawat berjalan sangat lambat, namun diperlukan. ArXiv hanya memerlukan pemeriksaan cepat dari seorang moderator alih-alih tinjauan yang menyita waktu, sehingga ia menambahkan sebuah langkah tengah yang mudah antara penemuan dan tinjauan sejawat, di mana semua temuan dan inovasi terbaru dapat—dengan hati-hati—diperlakukan dengan urgensi yang semestinya, hampir secara instan.

Namun penggunaan AI telah melukai ArXiv dan kini ia ‘berdarah’. Dan tidak jelas apakah pendarahan ini dapat dihentikan.

Sebagaimana sebuah artikel terkini di The Atlantic catat, pencipta ArXiv dan profesor ilmu informasi Cornell, Paul Ginsparg, telah khawatir sejak kebangkitan ChatGPT bahwa AI dapat digunakan untuk menerobos penghalang kecil namun perlu yang mencegah publikasi sampah di ArXiv. Tahun lalu, Ginsparg berkolaborasi dalam sebuah analisis yang menyelidiki kemungkinan penggunaan AI dalam submisi arXiv. Cukup mengerikan, ilmuwan yang jelas-jelas menggunakan LLM untuk menghasilkan makalah yang terlihat masuk akal ternyata lebih produktif dibanding yang tidak menggunakan AI. Jumlah makalah dari penulis yang menggunakan atau diperkuat AI lebih tinggi 33 persen.

AI dapat digunakan secara legitimate, kata analisis tersebut, untuk hal-hal seperti mengatasi hambatan bahasa. Analisis itu melanjutkan:

“Namun, sinyal tradisional kualitas ilmiah seperti kompleksitas bahasa menjadi indikator merit yang tidak andal, persis ketika kita mengalami peningkatan kuantitas karya ilmiah. Seiring kemajuan sistem AI, mereka akan menantang asumsi fundamental kita tentang kualitas riset, komunikasi akademik, dan hakikat kerja intelektual.”

MEMBACA  Buat dan Bawa Pulang Lego Snowman Bertema Natal Gratis di Barnes & Noble

Ini bukan cuma masalah ArXiv. Secara keseluruhan, ini adalah masa sulit bagi keandalan ilmu pengetahuan pada umumnya. Sebuah ‘self-own’ yang mencengangkan yang diterbitkan pekan lalu di Nature menggambarkan kesialan AI seorang ilmuwan ceroboh asal Jerman bernama Marcel Bucher, yang telah menggunakan ChatGPT untuk menghasilkan surel, informasi kuliah, materi perkuliahan, dan ujian. Seolah itu belum cukup buruk, ChatGPT juga membantunya menganalisis respons mahasiswa dan diintegrasikan ke dalam bagian interaktif pengajarannya. Lalu suatu hari, Bucher mencoba “sementara” menonaktifkan opsi yang ia sebut “persetujuan data”, dan ketika ChatGPT tiba-tiba menghapus semua informasi yang ia simpan secara eksklusif di aplikasi—yakni: di server OpenAI—ia mengeluh di halaman Nature bahwa “dua tahun kerja akademis yang tersusun hati-hati lenyap.”

Kemalasan luas yang diinduksi AI, yang tampak justru di area yang diharapkan dan diasumsikan memerlukan ketelitian dan perhatian terhadap detail, sungguh mendatangkan keputusasaan. Sudah bisa diduga ada masalah ketika jumlah publikasi melonjak hanya beberapa bulan setelah ChatGPT pertama kali dirilis, namun kini, seperti ditunjukkan The Atlantic, kita mulai mendapatkan detail tentang substansi dan skala sesungguhnya dari masalah itu—bukan sekadar individu-individu seperti Bucher yang terjangkit AI, mengalami kecemasan ‘publish or perish’, dan terburu-buru menerbitkan makalah palsu, melainkan penipuan skala industri.

Misalnya, dalam riset kanker, pelaku tak bertanggung jawab dapat meminta AI membuat makalah membosankan yang mengklaim mendokumentasikan “interaksi antara sel tumor dan hanya satu protein dari ribuan protein yang ada,” catat The Atlantic. Jika makalah itu mengklaim revolusioner, ia akan mencurigakan, berarti triknya lebih mungkin ketahuan, tetapi jika kesimpulan palsu dari eksperimen kanker palsu itu biasa-biasa saja, sampah itu akan jauh lebih mungkin diterbitkan—bahkan di publikasi kredibel. Lebih baik lagi jika disertai gambar-gambar AI-generated dari noda elektroforesis gel yang juga membosankan, namun menambah kesan masuk akal pada pandangan pertama.

MEMBACA  Perusahaan Obat AI Berjuang, Namun Jangan Salahkan Kecerdasan Buatannya

Singkatnya, banjir sampah telah tiba di dunia sains, dan semua orang harus mengurangi kemalasan, dari akademisi sibuk yang merencanakan pengajaran, hingga peninjau sejawat dan moderator ArXiv. Jika tidak, repositori pengetahuan yang dulu termasuk di antara sedikit sumber informasi tepercaya yang tersisa akan kewalahan oleh penyakit yang telah—mungkin tak terpulihkan—menginfeksi mereka. Dan apakah tahun 2026 terasa seperti waktu di mana siapa pun, di mana pun, menjadi kurang malas?

Tinggalkan komentar