Bos ChatGPT Mengatakan Anda Tetap Tidak Boleh Mempercayainya sebagai Sumber Informasi Utama

Ketika Anda memulai percakapan dengan ChatGPT, mungkin Anda melihat teks di bagian bawah layar: "ChatGPT bisa melakukan kesalahan. Periksa info penting." Hal ini masih berlaku dengan model GPT-5 terbaru, seperti diungkapkan oleh eksekutif senior OpenAI pekan ini.

"Masalahnya, dalam hal reliabilitas, ada jurang lebar antara sangat andal dan 100% andal, dalam cara Anda memandang produk ini," kata Nick Turley, kepala ChatGPT di OpenAI, dalam podcast Decoder oleh The Verge. "Sampai kami bisa membuktikan bahwa kami lebih andal daripada ahli manusia di semua bidang, bukan hanya beberapa, kami akan terus menyarankan untuk memeriksa ulang jawaban."

Ini saran yang sudah lama kami berikan terkait chatbot dalam peliputan AI kami. OpenAI pun begitu. Selalu periksa ulang. Selalu verifikasi. Meski chatbot berguna untuk beberapa tugas, ia juga bisa sepenuhnya mengarang.

Turely optimis akan perbaikan di bidang ini. "Saya rasa orang akan terus memanfaatkan ChatGPT sebagai pendapat kedua, bukan sumber fakta utama," ujarnya.

Masalahnya, sangat menggoda untuk menerima respons chatbot—atau AI Overview di hasil pencarian Google—apa adanya. Tapi alat AI generatif (tidak hanya ChatGPT) cenderung "berhalusinasi", alias mengarang. Ini terjadi karena mereka dirancang untuk memprediksi jawaban berdasarkan data pelatihan, tanpa pemahaman konkret tentang kebenaran.

Jika Anda berkonsultasi dengan dokter, terapis, atau penasihat keuangan, mereka seharusnya bisa memberikan jawaban yang tepat, bukan sekadar yang paling mungkin. AI, sebagian besar, memberi Anda jawaban yang dianggap paling benar—tanpa keahlian spesifik untuk memverifikasi.

AI cukup baik dalam menebak, tetapi pada dasarnya tetap menebak. Turley mengakui bahwa alat ini bekerja paling baik ketika dipasang dengan sumber fakta yang lebih akurat, seperti mesin pencari tradisional atau data internal perusahaan.

MEMBACA  Pemerintah AS Menggugat TikTok atas Pengumpulan Data yang Melanggar Hukum pada Anak-Anak

"Saya yakin produk yang tepat adalah LLM yang terhubung dengan ground truth, dan itulah mengapa kami menghadirkan pencarian di ChatGPT," katanya.

(Penafian: Ziff Davis, induk perusahaan CNET, pada April mengajukan gugatan terhadap OpenAI, menuduh pelanggaran hak cipta dalam pelatihan dan pengoperasian sistem AI-nya.)

Jangan berharap ChatGPT selalu benar saat ini

Turley menyebut GPT-5, model bahasa terbaru yang mendasari ChatGPT, sebagai "peningkatan besar" dalam hal halusinasi, tapi masih jauh dari sempurna.

"Kami yakin suatu saat akan mengatasi halusinasi, tapi tidak dalam kuartal depan," ujarnya.

Dalam pengujian saya terhadap GPT-5, sudah terlihat beberapa kesalahan. Saat menguji persona baru model ini, ia salah memahami jadwal sepak bola kampus dan menyebut semua pertandingan musim gugur terjadi di bulan September.

Pastikan Anda memeriksa informasi dari chatbot dengan sumber tepercaya, apakah itu ahli seperti dokter atau referensi online yang valid. Bahkan jika chatbot memberi tautan sumber, jangan asumsikan ringkasannya akurat—bisa saja fakta sudah terdistorsi.

Jika Anda akan mengambil keputusan berdasarkan informasi tersebut, kecuali Anda benar-benar tak peduli dengan kebenarannya, selalu verifikasi apa yang dikatakan AI.