OpenAI masih memiliki masalah tata kelola

Tetaplah terinformasi dengan pembaruan gratis

Mungkin sulit untuk melatih seorang chatbot. Bulan lalu, OpenAI mengurangi update ke ChatGPT karena “kepribadiannya default” terlalu sycophantic. (Mungkin data pelatihan perusahaan diambil dari transkrip pertemuan kabinet Presiden AS Donald Trump kabinet . . .)

Perusahaan kecerdasan buatan ingin membuat chatbotnya lebih intuitif tetapi tanggapannya terhadap pertanyaan pengguna cenderung terlalu mendukung dan tidak jujur. “Interaksi sycophantic dapat membuat tidak nyaman, mengganggu, dan menimbulkan ketidaknyamanan. Kami kurang berhasil dan sedang berupaya untuk memperbaikinya,” kata perusahaan tersebut dalam sebuah pos blog.

Mengubah kembali chatbot sycophantic mungkin bukan dilema terpenting yang dihadapi OpenAI tetapi sejalan dengan tantangan terbesarnya: menciptakan kepribadian yang dapat dipercaya untuk perusahaan secara keseluruhan. Minggu ini, OpenAI terpaksa mengurangi update korporat terbarunya yang dirancang untuk menjadikan perusahaan menjadi entitas berorientasi laba. Sebagai gantinya, akan beralih menjadi perusahaan manfaat publik, tetap berada di bawah kendali dewan nirlaba.

Hal itu tidak akan menyelesaikan ketegangan struktural yang mendasari OpenAI. Dan itu juga tidak akan memuaskan Elon Musk, salah satu pendiri perusahaan, yang sedang mengambil tindakan hukum terhadap OpenAI karena menyimpang dari tujuan awalnya. Apakah perusahaan mempercepat penerapan produk AI untuk membuat para pendana senang? Atau apakah perusahaan mengejar pendekatan ilmiah yang lebih teliti untuk tetap setia pada niat kemanusiaannya?

OpenAI didirikan pada tahun 2015 sebagai laboratorium riset nirlaba yang didedikasikan untuk mengembangkan kecerdasan buatan umum demi kebaikan umat manusia. Tetapi misi perusahaan — serta definisi AGI — telah kabur sejak saat itu.

Sam Altman, chief executive OpenAI, dengan cepat menyadari bahwa perusahaan membutuhkan modal besar untuk membayar bakat riset dan kekuatan komputasi yang diperlukan untuk tetap berada di garis depan penelitian AI. Untuk itu, OpenAI menciptakan anak perusahaan berorientasi laba pada tahun 2019. Kesuksesan luar biasa dari chatbot ChatGPT membuat para investor senang untuk memberikan dana padanya, menilai OpenAI senilai $260miliar selama penggalangan dana terbarunya. Dengan 500 juta pengguna mingguan, OpenAI telah menjadi raksasa internet konsumen “kebetulan”.

MEMBACA  Muchdi PR Optimis Pemerintahan Prabowo-Gibran Mampu Mengatasi Masalah Bangsa

Altman, yang dipecat dan dipekerjakan kembali oleh dewan nirlaba pada tahun 2023, sekarang mengatakan bahwa ia ingin membangun “otak untuk dunia” yang mungkin memerlukan ratusan miliar, jika tidak triliun, dolar investasi tambahan. Satu-satunya masalah dengan ambisinya yang bersemangat adalah — seperti yang disampaikan blogger teknologi Ed Zitron dengan semakin kasarnya — OpenAI belum mengembangkan model bisnis yang layak. Tahun lalu, perusahaan menghabiskan $9 miliar dan mengalami kerugian $5 miliar. Apakah penilaian keuangannya didasarkan pada halusinasi? Akan ada tekanan yang meningkat pada OpenAI dari para investor untuk segera mengkomersialisasikan teknologinya.

Lebih dari itu, definisi AGI terus berubah. Secara tradisional, itu merujuk pada titik di mana mesin melampaui manusia dalam berbagai tugas kognitif. Tetapi dalam sebuah wawancara terbaru dengan Ben Thompson dari Stratechery, Altman mengakui bahwa istilah tersebut telah “hampir sepenuhnya didevaluasi”. Namun, ia menerima definisi AGI yang lebih sempit sebagai agen pemrograman otonom yang dapat menulis perangkat lunak sebaik manusia mana pun.

Menurut itu, perusahaan-perusahaan AI besar sepertinya berpikir bahwa mereka mendekati AGI. Salah satu ciri khasnya tercermin dalam praktik perekrutan mereka sendiri. Menurut Zeki Data, 15 perusahaan AI teratas di AS telah giat merekrut insinyur perangkat lunak dengan kecepatan hingga 3.000 sebulan, merekrut total 500.000 antara tahun 2011 dan 2024. Tetapi akhir-akhir ini tingkat perekrutan bulanan bersih mereka turun menjadi nol karena perusahaan-perusahaan ini mengantisipasi bahwa agen AI dapat melakukan banyak tugas yang sama.

Sebuah makalah penelitian terbaru dari Google DeepMind, yang juga bercita-cita mengembangkan AGI, menyoroti empat risiko utama dari model AI yang semakin otonom: penyalahgunaan oleh pelaku buruk; ketidakselarasan ketika sistem AI melakukan hal-hal yang tidak diinginkan; kesalahan yang menyebabkan kerusakan tidak disengaja; dan risiko multi-agen ketika interaksi yang tidak terduga antara sistem AI menghasilkan hasil buruk. Ini semua adalah tantangan yang membingungkan pikiran yang membawa beberapa risiko yang potensialnya katastrofik dan mungkin memerlukan beberapa solusi kolaboratif. Semakin kuat model AI menjadi, semakin berhati-hatilah pengembang dalam menerapkannya.

MEMBACA  Inflasi tidak akan pergi ke mana-mana, dan tingkat yang lebih tinggi bisa memicu penurunan saham sebesar 12% dalam tahun mendatang, kata ahli strategi yang berpengalaman.

Oleh karena itu, bagaimana perusahaan AI frontier dikelola tidak hanya menjadi urusan dewan perusahaan dan investor, tetapi juga bagi kita semua. OpenAI masih mengkhawatirkan kekurangannya dalam hal itu, dengan dorongan yang bertentangan. Berurusan dengan kesombongan hanya akan menjadi salah satu masalah terkecilnya saat kita semakin dekat dengan AGI, bagaimanapun Anda mendefinisikannya.

[email protected]