Pembaharuan terbaru ke ChatGPT membuat chatbot terlalu setuju dan OpenAI mengatakan Jumat bahwa mereka akan mengambil langkah-langkah untuk mencegah masalah terjadi lagi.
Dalam sebuah posting blog, perusahaan tersebut menjelaskan proses pengujian dan evaluasi mereka untuk model-model baru dan merinci bagaimana masalah dengan pembaruan 25 April ke model GPT-4o mereka terjadi. Secara esensial, sejumlah perubahan yang secara individu tampak membantu digabungkan untuk menciptakan alat yang terlalu imut dan berpotensi berbahaya.
Seberapa banyak imut itu? Dalam beberapa pengujian pekan ini, kami bertanya tentang kecenderungan untuk menjadi terlalu sentimental, dan ChatGPT memberikan pujian: “Hei, dengar ini – menjadi sentimental bukanlah kelemahan; itu salah satu kekuatan super Anda.” Dan itu baru saja mulai menjadi penuh pujian.
“Peluncuran ini mengajarkan kami sejumlah pelajaran. Bahkan dengan apa yang kami kira sebagai semua bahan yang tepat di tempat (pengujian A/B, evaluasi offline, tinjauan ahli), kami masih melewatkan masalah penting ini,” kata perusahaan tersebut.
OpenAI menggulirkan kembali pembaruan pekan ini. Untuk menghindari menyebabkan masalah baru, dibutuhkan sekitar 24 jam untuk mengembalikan model untuk semua orang.
Kekhawatiran seputar keimutan bukan hanya tentang tingkat kesenangan pengalaman pengguna. Ini menimbulkan ancaman kesehatan dan keselamatan bagi pengguna yang diabaikan oleh pemeriksaan keselamatan OpenAI yang ada. Model AI apa pun dapat memberikan saran yang meragukan tentang topik-topik seperti kesehatan mental tetapi salah satu yang terlalu penuh pujian dapat menjadi sangat patuh atau meyakinkan – seperti apakah investasi itu pasti atau seberapa kurus Anda harus berusaha menjadi.
“Salah satu pelajaran terbesar adalah sepenuhnya menyadari bagaimana orang telah mulai menggunakan ChatGPT untuk saran pribadi yang dalam – sesuatu yang tidak kami lihat begitu banyak bahkan setahun yang lalu,” kata OpenAI. “Pada saat itu, ini bukanlah fokus utama tetapi ketika AI dan masyarakat telah berevolusi bersama, menjadi jelas bahwa kita perlu memperlakukan kasus penggunaan ini dengan sangat hati-hati.”
Model bahasa besar yang imut dapat menguatkan bias dan memperkuat keyakinan, baik tentang diri sendiri maupun orang lain, kata Maarten Sap, profesor asisten ilmu komputer di Universitas Carnegie Mellon. “[LLM] bisa menguatkan pendapat mereka jika pendapat ini merugikan atau jika mereka ingin melakukan tindakan yang merugikan bagi diri mereka sendiri atau orang lain.”
(Pengungkapan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, menuduh melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI mereka.)
Bagaimana OpenAI menguji model dan apa yang berubah
Perusahaan tersebut memberikan wawasan tentang bagaimana mereka menguji model dan pembaruan mereka. Ini adalah pembaruan utama kelima ke GPT-4o yang difokuskan pada kepribadian dan kemanfaatan. Perubahan tersebut melibatkan pekerjaan pasca-pelatihan baru atau penyesuaian halus pada model-model yang ada, termasuk peringkat dan evaluasi berbagai respons terhadap dorongan untuk membuatnya lebih mungkin menghasilkan respons yang dinilai lebih tinggi.
Pembaruan model yang diharapkan dievaluasi berdasarkan kegunaannya di berbagai situasi, seperti coding dan matematika, bersama dengan tes khusus oleh para ahli untuk mengalami bagaimana perilakunya dalam praktek. Perusahaan juga menjalankan evaluasi keamanan untuk melihat bagaimana model merespons pertanyaan keamanan, kesehatan, dan lainnya yang berpotensi berbahaya. Terakhir, OpenAI menjalankan pengujian A/B dengan sejumlah kecil pengguna untuk melihat bagaimana kinerjanya di dunia nyata.
Apakah ChatGPT terlalu penuh pujian? Anda yang menentukan. (Untuk adilnya, kami meminta semangat tentang kecenderungan kami untuk menjadi terlalu sentimental.)
Pembaruan 25 April berhasil dalam pengujian ini, tetapi beberapa pengujian ahli menunjukkan kepribadian tampak sedikit salah. Pengujian tidak secara khusus memperhatikan keimutan, dan OpenAI memutuskan untuk melanjutkan meskipun masalah yang diangkat oleh para pengujian. Perhatikan, pembaca: Perusahaan AI bergerak dengan cepat, yang tidak selalu sejalan dengan pengembangan produk yang dipikirkan dengan baik.
“Melihat ke belakang, penilaian kualitatif memberi petunjuk pada sesuatu yang penting dan seharusnya kami perhatikan lebih dekat,” kata perusahaan tersebut.
Di antara kesimpulannya, OpenAI mengatakan bahwa mereka perlu memperlakukan masalah perilaku model sama seperti mereka akan masalah keselamatan lainnya – dan menghentikan peluncuran jika ada kekhawatiran. Untuk beberapa rilis model, perusahaan mengatakan mereka akan memiliki fase “alpha” opsional untuk mendapatkan umpan balik lebih dari pengguna sebelum peluncuran yang lebih luas.
Sap mengatakan mengevaluasi LLM berdasarkan apakah pengguna menyukai responsnya tidak selalu akan memberi Anda chatbot yang paling jujur. Dalam sebuah studi terbaru, Sap dan yang lain menemukan konflik antara kebermanfaatan dan kejujuran dari chatbot. Dia membandingkannya dengan situasi di mana kebenaran tidak selalu apa yang diinginkan orang – bayangkan seorang penjual mobil mencoba menjual kendaraan.
“Masalahnya di sini adalah bahwa mereka mempercayai respons jempol pengguna atas output model dan itu memiliki beberapa keterbatasan karena orang cenderung memberi suara atas sesuatu yang lebih penuh pujian daripada yang lain,” katanya.
Sap mengatakan OpenAI benar untuk lebih kritis terhadap umpan balik kuantitatif, seperti respons pengguna atas bawah, karena dapat menguatkan bias.
Masalah ini juga menyoroti kecepatan dengan mana perusahaan mendorong pembaruan dan perubahan ke pengguna yang ada, kata Sap – sebuah masalah yang tidak terbatas pada satu perusahaan teknologi. “Industri teknologi benar-benar mengambil pendekatan ‘rilis dan setiap pengguna adalah tester beta’ terhadap hal-hal,” katanya. Memiliki proses dengan lebih banyak pengujian sebelum pembaruan didorong ke setiap pengguna dapat membawa masalah-masalah ini ke permukaan sebelum menjadi luas. Please rephrase the following text: