OpenAI Memperkenalkan Penelitian Keamanan AI Baru. Kritikus Mengatakan Ini Langkah Baik, tapi Belum Cukup.

OpenAI telah dihadapi dengan kritik dalam beberapa bulan terakhir dari mereka yang mengatakan bahwa perusahaan ini mungkin terlalu tergesa-gesa dan sembrono dalam mengembangkan kecerdasan buatan yang lebih kuat. Perusahaan tersebut tampaknya bertekad untuk menunjukkan bahwa mereka serius dalam mengatasi keselamatan kecerdasan buatan. Hari ini mereka memamerkan penelitian yang mereka katakan dapat membantu para peneliti memeriksa model kecerdasan buatan bahkan ketika mereka menjadi lebih mampu dan bermanfaat.

Teknik baru tersebut adalah salah satu dari beberapa ide terkait keselamatan kecerdasan buatan yang telah diiklankan oleh perusahaan dalam beberapa minggu terakhir. Ini melibatkan dua model kecerdasan buatan yang terlibat dalam percakapan yang memaksa model yang lebih kuat untuk menjadi lebih transparan, atau “legible,” dengan penalarannya sehingga manusia dapat memahami apa yang sedang dilakukan.

“Ini adalah inti dari misi membangun kecerdasan buatan umum yang aman dan bermanfaat,” kata Yining Chen, seorang peneliti OpenAI yang terlibat dalam pekerjaan tersebut, kepada WIRED.

Hingga saat ini, pekerjaan tersebut telah diuji pada model kecerdasan buatan yang dirancang untuk menyelesaikan masalah matematika sederhana. Para peneliti OpenAI meminta model kecerdasan buatan untuk menjelaskan penalarannya saat menjawab pertanyaan atau menyelesaikan masalah. Model kedua dilatih untuk mendeteksi apakah jawabannya benar atau tidak, dan para peneliti menemukan bahwa dengan kedua model terlibat dalam percakapan tersebut, model yang menyelesaikan masalah matematika menjadi lebih jujur dan transparan dalam penalarannya.

OpenAI secara publik merilis sebuah makalah yang mendetailkan pendekatan tersebut. “Ini bagian dari rencana penelitian keselamatan jangka panjang,” kata Jan Hendrik Kirchner, seorang peneliti OpenAI lainnya yang terlibat dalam pekerjaan tersebut. “Kami berharap bahwa peneliti lain dapat mengikuti, dan mungkin mencoba algoritma lain juga.”

MEMBACA  Marvel vs. Capcom Sedang Melatih Untuk Kebangkitan Potensial

Transparansi dan penjelasan adalah perhatian utama bagi para peneliti kecerdasan buatan yang bekerja untuk membangun sistem yang lebih kuat. Model bahasa besar kadang-kadang akan menawarkan penjelasan yang masuk akal tentang bagaimana mereka sampai pada suatu kesimpulan, tetapi kekhawatiran utama adalah bahwa model-model masa depan mungkin menjadi lebih buram atau bahkan menipu dalam penjelasan yang mereka berikan—mungkin mengejar tujuan yang tidak diinginkan sambil berbohong tentang hal itu.

Penelitian yang diungkapkan hari ini adalah bagian dari upaya lebih luas untuk memahami bagaimana model bahasa besar yang menjadi inti dari program seperti ChatGPT beroperasi. Ini adalah salah satu dari sejumlah teknik yang dapat membantu membuat model kecerdasan buatan yang lebih kuat menjadi lebih transparan dan oleh karena itu lebih aman. OpenAI dan perusahaan lain sedang mengeksplorasi cara-cara yang lebih mekanis untuk melihat ke dalam kerja model bahasa besar, juga.

OpenAI telah mengungkapkan lebih banyak dari pekerjaan mereka dalam bidang keselamatan kecerdasan buatan dalam beberapa minggu terakhir setelah kritik terhadap pendekatannya. Pada bulan Mei, WIRED mengetahui bahwa sebuah tim peneliti yang didedikasikan untuk mempelajari risiko kecerdasan buatan jangka panjang telah dibubarkan. Hal ini terjadi tidak lama setelah kepergian salah satu pendiri dan pemimpin teknis kunci, Ilya Sutskever, yang merupakan salah satu anggota dewan yang sebentar menggulingkan CEO Sam Altman pada bulan November lalu.

OpenAI didirikan dengan janji bahwa mereka akan membuat kecerdasan buatan lebih transparan untuk diperiksa dan lebih aman. Setelah kesuksesan ChatGPT yang luar biasa dan persaingan yang semakin intens dari pesaing yang didukung dengan baik, beberapa orang telah menuduh perusahaan ini lebih memprioritaskan kemajuan yang mencolok dan pangsa pasar daripada keselamatan.

MEMBACA  Quentin Tarantino Mengatakan Film Star Trek-nya Tidak Akan Pernah Terjadi

Daniel Kokotajlo, seorang peneliti yang meninggalkan OpenAI dan menandatangani surat terbuka yang mengkritik pendekatan perusahaan terhadap keselamatan kecerdasan buatan, mengatakan bahwa pekerjaan baru ini penting, tapi bertahap, dan bahwa hal itu tidak mengubah fakta bahwa perusahaan yang membangun teknologi tersebut memerlukan pengawasan yang lebih ketat. “Kami tetap berada dalam situasi yang sama,” katanya. “Korporasi yang buram, tidak bertanggung jawab, tak teratur saling berlomba untuk membangun kecerdasan buatan super, tanpa rencana sama sekali untuk mengendalikannya.”

Sumber lain yang mengetahui cara kerja internal OpenAI, yang meminta namanya tidak disebutkan karena tidak diizinkan untuk berbicara secara publik, mengatakan bahwa pengawasan dari luar terhadap perusahaan-perusahaan kecerdasan buatan juga diperlukan. “Pertanyaannya adalah apakah mereka serius dalam jenis proses dan mekanisme tata kelola yang Anda butuhkan untuk memprioritaskan manfaat sosial daripada keuntungan,” kata sumber tersebut. “Bukan apakah mereka membiarkan peneliti mereka melakukan beberapa hal keselamatan.”