Masalah Akurasi Gen AI Tidak Akan Segera Hilang, Kata Para Peneliti

AI generative chatbots dikenal sering membuat banyak kesalahan. Semoga kamu tidak mengikuti saran AI Google untuk menambahkan lem ke resep pizza atau makan batu satu atau dua sehari untuk kesehatanmu. Kesalahan-kesalahan ini dikenal sebagai halusinasi: pada dasarnya, hal-hal yang dibuat model. Apakah teknologi ini akan menjadi lebih baik? Bahkan para peneliti yang mempelajari AI tidak optimis bahwa hal itu akan terjadi dalam waktu dekat.

Itu adalah salah satu temuan dari panel dua puluh empat ahli kecerdasan buatan yang dirilis bulan ini oleh Asosiasi untuk Kemajuan Kecerdasan Buatan. Kelompok ini juga melakukan survei terhadap lebih dari 400 anggota asosiasi tersebut.

Berbeda dengan hype yang mungkin kamu lihat tentang pengembang yang hanya beberapa tahun (atau bulan, tergantung pada siapa yang kamu tanya) dari perbaikan AI, panel akademisi dan ahli industri ini tampak lebih berhati-hati tentang seberapa cepat alat-alat ini akan berkembang. Ini termasuk tidak hanya mendapatkan fakta yang benar dan menghindari kesalahan aneh. Keandalan alat-alat AI perlu meningkat secara dramatis jika pengembang ingin menghasilkan model yang dapat memenuhi atau melampaui kecerdasan manusia, yang umumnya dikenal sebagai kecerdasan buatan umum. Para peneliti tampaknya percaya bahwa perbaikan pada skala tersebut tidak mungkin terjadi dalam waktu dekat.

“Kami cenderung sedikit berhati-hati dan tidak percaya sesuatu sampai itu benar-benar berhasil,” kata Vincent Conitzer, seorang profesor ilmu komputer di Universitas Carnegie Mellon dan salah satu panelis, kepada saya.

Kecerdasan buatan telah berkembang pesat dalam beberapa tahun terakhir. Tujuan laporan itu, yang ditulis oleh presiden AAAI Francesca Rossi dalam pengantar, adalah untuk mendukung penelitian dalam kecerdasan buatan yang menghasilkan teknologi yang membantu orang. Masalah kepercayaan dan keandalan sangat serius, tidak hanya dalam menyediakan informasi yang akurat tetapi juga dalam menghindari bias dan memastikan bahwa AI masa depan tidak menyebabkan konsekuensi tidak diinginkan yang parah. “Kita semua perlu bekerja sama untuk memajukan AI dengan cara yang bertanggung jawab, untuk memastikan bahwa kemajuan teknologi mendukung kemajuan kemanusiaan dan selaras dengan nilai-nilai manusia,” tulisnya.

MEMBACA  Notebook digital terbaik yang dapat Anda beli di tahun 2025: Diuji dan ditinjau oleh pakar.

Akselerasi AI, terutama sejak OpenAI meluncurkan ChatGPT pada tahun 2022, telah luar biasa, kata Conitzer. “Dalam beberapa hal itu sungguh menakjubkan, dan banyak dari teknik-teknik ini jauh lebih baik daripada yang kebanyakan dari kita pikirkan,” katanya.

Ada beberapa area penelitian AI di mana “hype” memiliki merit,” kata John Thickstun, profesor asisten ilmu komputer di Universitas Cornell, kepada saya. Hal ini terutama berlaku dalam matematika atau ilmu pengetahuan, di mana pengguna dapat memeriksa hasil model.

“Teknologi ini luar biasa,” kata Thickstun. “Saya telah bekerja dalam bidang ini selama lebih dari satu dekade, dan saya terkejut betapa baiknya dan seberapa cepat ia menjadi begitu baik.”

Meskipun ada peningkatan, masih ada isu yang signifikan yang perlu diteliti dan dipertimbangkan, kata para ahli.

Apakah chatbot akan mulai mendapatkan fakta yang benar?

Meskipun ada kemajuan dalam meningkatkan kepercayaan informasi yang berasal dari model AI generatif, masih banyak pekerjaan yang perlu dilakukan. Laporan terbaru dari Columbia Journalism Review menemukan bahwa chatbot cenderung tidak menolak untuk menjawab pertanyaan yang tidak dapat mereka jawab dengan tepat, yakin tentang informasi yang salah yang mereka berikan dan membuat (dan memberikan tautan palsu ke) sumber untuk mendukung klaim yang salah.

Meningkatkan keandalan dan ketepatan “arguably adalah area penelitian AI terbesar saat ini,” kata laporan AAAI. Para peneliti mencatat tiga cara utama untuk meningkatkan akurasi sistem AI: fine-tuning, seperti penguatan pembelajaran dengan umpan balik manusia; generasi dengan augmentasi pengambilan, di mana sistem mengumpulkan dokumen-dokumen tertentu dan menarik jawabannya dari dokumen tersebut; dan rantai pemikiran, di mana prompt memecah pertanyaan menjadi langkah-langkah yang lebih kecil yang dapat diperiksa model AI untuk halusinasi.

Apakah hal-hal itu akan membuat respons chatbotmu lebih akurat? Tidak mungkin: “Kekebenaran masih jauh dari terselesaikan,” kata laporan tersebut. Sekitar 60% dari responden mengungkapkan keraguan bahwa kebenaran atau kekhawatiran tentang kepercayaan akan segera teratasi.

Di industri AI generatif, ada optimisme bahwa memperbesar model-model yang ada akan membuat mereka lebih akurat dan mengurangi halusinasi.

MEMBACA  Cara Kerja Ozempic dan Misteri yang Masih Belum Terpecahkan

“Saya pikir harapan itu selalu sedikit terlalu optimis,” kata Thickstun. “Selama beberapa tahun terakhir, saya tidak melihat bukti bahwa model bahasa yang sangat akurat dan faktual akan segera hadir.”

Meskipun kecacatan model bahasa besar seperti Claude dari Anthropic atau Llama dari Meta, pengguna dapat keliru menganggap bahwa mereka lebih akurat karena mereka menyajikan jawaban dengan percaya diri, kata Conitzer.

“Jika kita melihat seseorang merespons dengan percaya diri atau kata-kata yang terdengar percaya diri, kita menganggap bahwa orang tersebut benar-benar tahu apa yang sedang mereka bicarakan,” katanya. “Sebuah sistem AI, mungkin hanya mengklaim sangat yakin tentang sesuatu yang benar-benar nonsens.”

Pelajaran bagi pengguna AI

Kesadaran akan batasan AI generatif sangat penting untuk menggunakannya dengan benar. Saran Thickstun untuk pengguna model-model seperti ChatGPT dan Gemini dari Google sederhana: “Kamu harus memeriksa hasilnya.”

Model bahasa besar umumnya kurang baik dalam konsisten mengambil informasi faktual, katanya. Jika kamu memintanya sesuatu, kamu sebaiknya mengikuti dengan mencari jawabannya di mesin pencari (dan tidak bergantung pada ringkasan AI dari hasil pencarian).

Thickstun mengatakan cara dia paling banyak menggunakan model-model AI adalah untuk mengotomatisasi tugas-tugas yang sebenarnya bisa dia lakukan dan yang bisa dia periksa keakuratannya, seperti memformat tabel informasi atau menulis kode. “Prinsip yang lebih luas adalah bahwa saya menemukan model-model ini paling berguna untuk mengotomatisasi pekerjaan yang sudah kamu tahu cara melakukannya,” katanya.

Baca selengkapnya: 5 Cara Tetap Cerdas Saat Menggunakan Gen AI, Dijelaskan oleh Profesor Ilmu Komputer

Apakah kecerdasan buatan umum di ujung jalan?

Salah satu prioritas industri pengembangan AI adalah perlombaan yang tampaknya untuk menciptakan apa yang sering disebut sebagai kecerdasan buatan umum, atau AGI. Ini adalah model yang umumnya mampu berpikir setara dengan manusia atau lebih baik.

Survei laporan tersebut menemukan pendapat kuat tentang perlombaan menuju AGI. Terutama, lebih dari tiga perempat (76%) responden mengatakan bahwa memperbesar teknik-teknik AI saat ini seperti model bahasa besar tidak mungkin menghasilkan AGI. Mayoritas peneliti meragukan bahwa langkah menuju AGI saat ini akan berhasil.

MEMBACA  Samsung akan menawarkan diskon hingga $1,500 untuk Galaxy Z Fold 6 dan Z Flip 6 - begini kemungkinan cara kerjanya.

Sejumlah besar juga percaya bahwa sistem yang mampu kecerdasan buatan umum seharusnya dimiliki secara publik jika dikembangkan oleh entitas swasta (82%). Hal ini sejalan dengan kekhawatiran tentang etika dan dampak negatif dari menciptakan sistem yang dapat mengalahkan manusia. Kebanyakan peneliti (70%) mengatakan mereka menentang menghentikan penelitian AGI sampai sistem keamanan dan kontrol dikembangkan. “Jawaban-jawaban ini tampaknya menunjukkan preferensi untuk terus menjelajahi topik tersebut, dengan beberapa pengamanan,” kata laporan tersebut.

Pembicaraan seputar AGI rumit, kata Thickstun. Pada suatu tingkat, kita sudah menciptakan sistem yang memiliki bentuk kecerdasan umum. Model-model bahasa besar seperti ChatGPT dari OpenAI mampu melakukan berbagai aktivitas manusia, berbeda dengan model AI yang lebih lama yang hanya bisa melakukan satu hal, seperti bermain catur. Pertanyaannya adalah apakah itu bisa melakukan banyak hal secara konsisten pada tingkat manusia.

“Saya pikir kita masih sangat jauh dari itu,” kata Thickstun.

Dia mengatakan model-model ini kekurangan konsep kebenaran bawaan dan kemampuan untuk menangani tugas-tugas kreatif yang benar-benar terbuka. “Saya tidak melihat jalan untuk membuat mereka beroperasi secara robust di lingkungan manusia dengan menggunakan teknologi saat ini,” katanya. “Saya pikir masih banyak kemajuan penelitian yang menghalangi untuk mencapainya.”

Conitzer mengatakan definisi apa yang sebenarnya merupakan AGI sulit: Seringkali, orang mengartikannya sebagai sesuatu yang dapat melakukan sebagian besar tugas lebih baik daripada manusia tetapi ada yang mengatakan itu hanya sesuatu yang mampu melakukan berbagai tugas. “Definisi yang lebih ketat adalah sesuatu yang benar-benar akan membuat kita sepenuhnya tidak berguna,” katanya.

Meskipun para peneliti skeptis bahwa AGI akan segera hadir, Conitzer memperingatkan bahwa para peneliti AI tidak selalu mengharapkan perbaikan teknologi yang dramatis yang telah kita lihat dalam beberapa tahun terakhir.

“Kita tidak melihat datangnya seberapa cepat hal-hal telah berubah belakangan ini,” katanya, “dan jadi kamu mungkin bertanya-tanya apakah kita akan melihatnya datang jika itu terus berlangsung lebih cepat.”

Tinggalkan komentar