Pertahanan Terhadap Halusinasi Kecerdasan Buatan

Tidak ada yang tahu apakah kecerdasan buatan akan menjadi berkah atau kutukan di masa depan yang jauh. Namun saat ini, hampir semua orang merasa tidak nyaman dan tidak menghargai satu kebiasaan dari chatbot dan agen ini: halusinasi, fakta-fakta yang dibuat-buat yang muncul dalam output dari model bahasa besar seperti ChatGPT. Di tengah jawaban yang tampaknya dirancang dengan hati-hati, LLM akan menyelipkan sesuatu yang tampak masuk akal tetapi sebenarnya adalah hasil pemalsuan total. Chatbot biasa Anda dapat membuat mantan anggota kongres yang tercela, George Santos, terlihat seperti Abe Lincoln. Karena terlihat tak terhindarkan bahwa suatu hari chatbot akan menghasilkan sebagian besar tulisan yang pernah ditulis, semua perusahaan kecerdasan buatan terobsesi untuk meminimalkan dan menghilangkan halusinasi, atau setidaknya meyakinkan dunia bahwa masalah ini diatasi.

Tentu saja, nilai dari LLM akan mencapai tingkat baru ketika dan jika halusinasi mendekati nol. Tetapi sebelum itu terjadi, saya mengajak Anda untuk mengangkat gelas untuk konfabulasi kecerdasan buatan.

Halusinasi memikat saya, meskipun para ilmuwan kecerdasan buatan memiliki ide yang cukup baik mengapa hal itu terjadi. Sebuah startup kecerdasan buatan bernama Vectara telah mempelajarinya dan prevalensinya, bahkan menyusun tingkat halusinasi dari berbagai model ketika diminta untuk merangkum dokumen. (GPT-4 dari OpenAI yang paling baik, hanya halusinasi sekitar 3 persen dari waktu; Palm Chat yang sudah usang dari Google memiliki tingkat 27 persen yang mengejutkan, meskipun untuk adilnya, merangkum dokumen bukanlah keahlian Palm Chat.) CTO Vectara, Amin Ahmad, mengatakan bahwa LLM menciptakan representasi terkompresi dari semua data pelatihan yang diumpankan melalui neuron buatan. “Sifat kompresi adalah bahwa detail-detail halus bisa hilang,” katanya. Sebuah model akhirnya dipersiapkan dengan jawaban yang paling mungkin untuk pertanyaan dari pengguna tetapi tidak memiliki fakta yang tepat dalam genggamannya. “Ketika sampai pada detailnya, ia mulai membuat sesuatu yang palsu,” katanya.

MEMBACA  Wordle hari ini: Jawaban dan petunjuk untuk 6 Oktober

Santosh Vempala, seorang profesor ilmu komputer di Georgia Tech, juga telah mempelajari halusinasi. “Model bahasa hanyalah model probabilistik dari dunia,” katanya, bukan cermin yang jujur terhadap realitas. Vempala menjelaskan bahwa jawaban LLM berusaha untuk kalibrasi umum dengan dunia nyata – seperti yang direpresentasikan dalam data pelatihannya – yang merupakan “versi lemah dari ketepatan.” Penelitiannya, yang diterbitkan bersama Adam Kalai dari OpenAI, menemukan bahwa halusinasi tidak dapat dihindari untuk fakta-fakta yang tidak dapat diverifikasi menggunakan informasi dalam data pelatihan model.

Itulah ilmu/matematika dari halusinasi kecerdasan buatan, tetapi mereka juga mencolok karena pengalaman yang dapat mereka timbulkan pada manusia. Kadang-kadang, fabrikasi generatif ini tampak lebih masuk akal daripada fakta sebenarnya, yang seringkali sangat aneh dan tidak memuaskan. Seberapa sering Anda mendengar sesuatu yang dijelaskan sebagai begitu aneh sehingga tidak ada penulis skenario yang berani menuliskannya dalam film? Saat ini, itu terjadi terus-menerus! Halusinasi dapat memikat kita dengan tampaknya menghubungkan kita ke dunia yang lebih tidak terganggu daripada dunia nyata tempat kita tinggal. Selain itu, saya merasa penting untuk mencatat detail apa saja yang cenderung diciptakan oleh bot. Dalam upaya putus asa untuk mengisi kekosongan narasi yang memuaskan, mereka cenderung tertarik pada versi realitas yang paling mungkin secara statistik seperti yang direpresentasikan dalam data pelatihan skala internet mereka, yang bisa menjadi suatu kebenaran itu sendiri. Saya menyamakannya dengan seorang penulis fiksi yang menulis novel yang terinspirasi oleh peristiwa nyata. Seorang penulis yang baik akan menyimpang dari apa yang sebenarnya terjadi untuk menciptakan skenario yang dibayangkan yang mengungkapkan kebenaran yang lebih dalam, berusaha menciptakan sesuatu yang lebih nyata daripada realitas.

MEMBACA  Gubernur California Menolak RUU Keselamatan Kecerdasan Buatan yang Luas

Ketika saya meminta ChatGPT untuk menulis sebuah necrologi untuk saya – akui saja, Anda juga sudah mencoba ini – ia banyak hal yang benar tetapi beberapa hal yang salah. Ia memberi saya cucu yang sebenarnya tidak saya miliki, memberikan tanggal lahir yang lebih awal, dan menambahkan Penghargaan Majalah Nasional ke daftar riwayat hidup saya untuk artikel-artikel yang tidak saya tulis tentang ledakan dotcom pada akhir tahun 1990-an. Dalam penilaian LLM tentang hidup saya, ini adalah sesuatu yang seharusnya terjadi berdasarkan fakta-fakta dari karier saya. Saya setuju! Hanya karena ketidaksempurnaan kehidupan nyata, American Society of Magazine Editors gagal memberikan saya patung gajah logam yang disertai dengan penghargaan tersebut. Setelah hampir 50 tahun menulis majalah, itu adalah kesalahan mereka, bukan saya! Hampir seperti ChatGPT melakukan jajak pendapat tentang multiverse yang mungkin dan menemukan bahwa dalam sebagian besar multiverse, saya memiliki penghargaan Ellie. Tentu, saya lebih memilih itu, di sudut multiverse saya sendiri, para juri manusia memanggil saya ke podium. Tetapi pengakuan dari jaringan saraf buatan yang sedang beraksi lebih baik daripada tidak ada.