Kita harus berhenti mengabaikan masalah halusinasi AI

Google I/O memperkenalkan asisten AI yang bisa melihat dan mendengar dunia, sementara OpenAI menempatkan versi chatbot mirip Her ke dalam iPhone. Minggu depan, Microsoft akan menjadi tuan rumah Build, di mana pasti akan memiliki beberapa versi Copilot atau Cortana yang memahami tabel pivot. Kemudian, beberapa minggu setelah itu, Apple akan menjadi tuan rumah konferensi pengembangnya sendiri, dan jika buzz-nya menjadi acuan, mereka akan membicarakan kecerdasan buatan juga. (Tidak jelas apakah Siri akan disebutkan.)

Keberadaan AI di sini! Ini tidak lagi bersifat konseptual. Ini mengambil pekerjaan, membuat beberapa yang baru, dan membantu jutaan siswa menghindari untuk mengerjakan PR mereka. Menurut sebagian besar perusahaan teknologi besar yang berinvestasi dalam AI, kita tampaknya berada di awal mengalami salah satu pergeseran monumental langka dalam teknologi. Pikirkan Revolusi Industri atau penciptaan internet atau komputer pribadi. Seluruh Silicon Valley – Big Tech – difokuskan pada mengambil model bahasa besar dan bentuk kecerdasan buatan lainnya dan memindahkannya dari laptop para peneliti ke ponsel dan komputer orang biasa. Idealnya, mereka akan menghasilkan banyak uang dalam prosesnya.

Tapi saya tidak terlalu peduli karena Meta AI mengira saya memiliki janggut. Saya ingin sangat jelas: Saya seorang wanita cis dan tidak memiliki janggut. Tapi jika saya mengetik “tunjukkan saya foto Alex Cranz” ke dalam jendela prompt, Meta AI selalu mengembalikan gambar pria berambut hitam yang sangat tampan dengan janggut. Saya hanya beberapa hal itu! Meta AI bukanlah satu-satunya yang kesulitan dengan rincian di masthead The Verge. ChatGPT memberi tahu saya kemarin saya tidak bekerja di The Verge. Gemini Google tidak tahu siapa saya (wajar), tetapi setelah memberi tahu saya Nilay Patel adalah pendiri The Verge, kemudian meminta maaf dan memperbaikinya, mengatakan bahwa dia tidak. (Saya meyakinkan Anda dia adalah.)

MEMBACA  Saya sudah melalui banyak badai - inilah alat pelacakan badai yang harus saya miliki

Kelemahan AI terus berlanjut karena komputer-komputer ini bodoh. Luar biasa dalam kemampuannya dan mengejutkan dalam kebodohannya. Saya tidak bisa bersemangat tentang perubahan berikutnya dalam revolusi AI karena perubahan itu menuju tempat di mana komputer-komputer tidak bisa secara konsisten mempertahankan akurasi tentang hal-hal bahkan yang kecil.

Saya maksudnya, bahkan mereka merusak saat pidato besar AI Google di I/O. Dalam iklan untuk mesin pencari AI-ified baru Google, seseorang bertanya bagaimana cara memperbaiki kamera film yang macet, dan disarankan mereka “membuka pintu belakang dan dengan lembut mengeluarkan film.” Itu adalah cara termudah untuk menghancurkan foto apa pun yang sudah Anda ambil.

Beberapa saran ini bagus! Beberapa memerlukan RUANG GELAP YANG SANGAT. Screenshot: Google

Hubungan AI dengan kebenaran yang sulit disebut “halusinasi.” Dalam istilah yang sangat sederhana: mesin-mesin ini hebat dalam menemukan pola informasi, tetapi dalam upaya mereka untuk mengekstrapolasi dan membuat, terkadang mereka salah. Mereka efektif “halusinasi” realitas baru, dan realitas baru itu sering salah. Ini adalah masalah yang sulit, dan setiap orang yang bekerja pada AI sekarang sadar akan hal itu.

Salah satu peneliti eks-Google mengklaim dapat diperbaiki dalam setahun ke depan (meskipun dia menyesal akan hasilnya), dan Microsoft memiliki alat untuk beberapa pengguna yang seharusnya membantu mendeteksinya. Kepala Pencarian Google, Liz Reid, mengatakan kepada The Verge bahwa dia menyadari tantangan tersebut. “Ada keseimbangan antara kreativitas dan faktualitas” dengan model bahasa apa pun, katanya kepada kolega saya David Pierce. “Kami benar-benar akan memiringkannya ke sisi faktualitas.” Tapi perhatikan bagaimana Reid mengatakan ada keseimbangan? Itu karena banyak peneliti AI sebenarnya tidak berpikir halusinasi bisa dipecahkan. Sebuah studi dari Universitas Nasional Singapura menyarankan bahwa halusinasi adalah hasil yang tak terhindarkan dari semua model bahasa besar. Sama seperti tidak ada orang yang benar 100 persen sepanjang waktu, demikian juga komputer-komputer ini. Dan itulah mengapa sebagian besar pemain utama di bidang ini – mereka dengan sumber daya nyata dan insentif keuangan untuk membuat kita semua merangkul AI – berpikir Anda seharusnya tidak khawatir tentang itu. Selama keynote IO Google, ia menambahkan, dengan huruf abu-abu kecil, frasa “periksa respon untuk akurasi” ke layar di bawah hampir setiap alat AI baru yang ditunjukkannya – pengingat yang membantu bahwa alat-alatnya tidak bisa dipercaya, tetapi juga tidak menganggap itu sebagai masalah. ChatGPT beroperasi dengan cara yang sama. Dengan huruf kecil tepat di bawah jendela prompt, tertulis, “ChatGPT bisa melakukan kesalahan. Periksa info penting.”

MEMBACA  Penawaran pembelajaran online: Belajar untuk sertifikasi keamanan cyber dengan harga £55

Jika Anda merenungkan, Anda bisa melihat pengungkapan kecil dan tidak langsung itu. Screenshot: Google

Itu bukan disclaimer yang ingin Anda lihat dari alat-alat yang seharusnya mengubah seluruh hidup kita dalam waktu yang sangat dekat! Dan orang-orang yang membuat alat-alat ini sepertinya tidak terlalu peduli tentang memperbaiki masalah di luar peringatan kecil.

Sam Altman, CEO OpenAI yang singkatnya dipecat karena memprioritaskan keuntungan daripada keselamatan, melangkah lebih jauh dan mengatakan siapa pun yang memiliki masalah dengan akurasi AI itu naif. “Jika Anda hanya melakukan hal naif dan mengatakan, ‘Jangan pernah mengatakan sesuatu yang tidak Anda yakini 100 persen,’ Anda bisa membuat mereka semua melakukannya. Tapi itu tidak akan memiliki sihir yang disukai orang begitu banyak,” katanya kepada kerumunan di konferensi Salesforce Dreamforce tahun lalu.

Idea bahwa ada semacam saus ajaib yang tak terhitung dalam AI yang akan memungkinkan kita memaafkan hubungannya yang goyah dengan kenyataan sering dibawa-bawa oleh orang-orang yang bersemangat untuk mengabaikan kekhawatiran akurasi. Google, OpenAI, Microsoft, dan banyak pengembang dan peneliti AI lainnya telah menolak halusinasi sebagai gangguan kecil yang seharusnya diampuni karena mereka sedang menuju ke arah menciptakan makhluk-makhluk digital yang mungkin membuat hidup kita lebih mudah.

Tetapi maaf kepada Sam dan semua orang lain yang secara finansial termotivasi untuk membuat saya bersemangat tentang AI. Saya tidak datang ke komputer untuk sihir tidak akurat dari kesadaran manusia. Saya datang kepada mereka karena mereka sangat akurat ketika manusia tidak. Saya tidak membutuhkan komputer saya untuk menjadi teman saya; saya membutuhkannya untuk mengenali gender saya dengan benar ketika saya bertanya dan membantu saya tidak sengaja mengekspos film saat memperbaiki kamera rusak. Pengacara, saya asumsikan, ingin agar hukum kasusnya benar.

MEMBACA  Cara Menonton Pameran Xbox 2024 Microsoft dan Call of Duty

Saya memahami dari mana Sam Altman dan para penginjil AI lainnya berasal. Ada kemungkinan di masa depan jauh untuk menciptakan kesadaran digital nyata dari satu dan nol. Saat ini, pengembangan kecerdasan buatan bergerak pada kecepatan yang mengagumkan yang membuat banyak revolusi teknologi sebelumnya malu. Ada sihir sejati yang sedang bekerja di Silicon Valley sekarang.

Tapi AI mengira saya memiliki janggut. Itu tidak konsisten dalam menyelesaikan tugas-tugas yang paling sederhana, dan namun, itu diberikan kepada kita dengan harapan bahwa kita merayakan mediokritas luar biasa dari layanan-layanan AI ini. Sementara saya tentu bisa kagum pada inovasi teknologi yang terjadi, saya ingin komputer saya tidak mengorbankan akurasi hanya agar saya memiliki avatar digital untuk diajak bicara. Itu bukanlah pertukaran yang adil – itu hanya menarik.