Laporan OpenAI Dilaporkan Mencairkan Tim Risiko AI Eksistensialnya

Tim Superalignment OpenAI, yang bertanggung jawab atas mengendalikan bahaya eksistensial dari sistem AI super manusia, dilaporkan telah dibubarkan, menurut Wired pada hari Jumat. Kabar tersebut datang hanya beberapa hari setelah pendiri tim, Ilya Sutskever dan Jan Leike, secara bersamaan keluar dari perusahaan.

Mengapa Semua Menuntut Perusahaan AI? | Teknologi Masa Depan

Wired melaporkan bahwa tim Superalignment OpenAI, yang pertama kali diluncurkan pada Juli 2023 untuk mencegah sistem AI super manusia di masa depan menjadi nakal, tidak ada lagi. Laporan tersebut menyatakan bahwa pekerjaan kelompok tersebut akan diserap ke dalam upaya penelitian OpenAI lainnya. Penelitian tentang risiko yang terkait dengan model AI yang lebih kuat sekarang akan dipimpin oleh salah satu pendiri OpenAI, John Schulman, menurut Wired. Sutskever dan Leike adalah beberapa ilmuwan teratas OpenAI yang fokus pada risiko AI.

Leike memposting serangkaian panjang di X Jumat secara samar-samar menjelaskan mengapa dia meninggalkan OpenAI. Dia mengatakan bahwa dia telah bertengkar dengan pimpinan OpenAI tentang nilai inti untuk beberapa waktu, tetapi mencapai titik tertentu pekan ini. Leike mencatat bahwa tim Superalignment telah “melawan arus,” berjuang untuk mendapatkan komputasi yang cukup untuk penelitian penting. Dia berpikir bahwa OpenAI perlu lebih fokus pada keamanan, keselamatan, dan penyelarasan.

Tim pers OpenAI mengarahkan kami ke tweet Sam Altman ketika ditanyai apakah tim Superalignment dibubarkan. Altman mengatakan bahwa dia akan membuat pos lebih panjang dalam beberapa hari ke depan dan OpenAI memiliki “banyak hal lain yang harus dilakukan.”

Kemudian, juru bicara OpenAI menjelaskan bahwa “Superalignment sekarang akan lebih dalam terakar dalam penelitian, yang akan membantu kami mencapai tujuan Superalignment kami dengan lebih baik.” Perusahaan mengatakan integrasi ini dimulai “beberapa minggu yang lalu” dan pada akhirnya akan memindahkan anggota tim dan proyek Superalignment ke tim lain.

MEMBACA  5 Acara Komedi Terbaik di Netflix

“Saat ini, kami tidak memiliki solusi untuk mengarahkan atau mengendalikan AI yang berpotensi super cerdas, dan mencegahnya menjadi nakal,” kata tim Superalignment dalam sebuah pos blog OpenAI ketika diluncurkan pada Juli. “Tapi manusia tidak akan bisa mengawasi sistem AI secara dapat diandalkan jauh lebih pintar dari kita, dan oleh karena itu teknik penyelarasan kami saat ini tidak akan berskala ke superinteligensi. Kami membutuhkan terobosan ilmiah dan teknis baru.”

Sekarang tidak jelas apakah perhatian yang sama akan diberikan pada terobosan teknis tersebut. Tanpa diragukan lagi, ada tim lain di OpenAI yang fokus pada keselamatan. Tim Schulman, yang kabarnya menyerap tanggung jawab Superalignment, saat ini bertanggung jawab untuk menyetel model AI setelah pelatihan. Namun, Superalignment fokus secara khusus pada hasil yang paling parah dari AI nakal. Seperti yang dikemukakan Gizmodo kemarin, beberapa advokat keamanan AI paling vokal dari OpenAI telah mengundurkan diri atau dipecat dalam beberapa bulan terakhir.

Awal tahun ini, kelompok tersebut merilis sebuah makalah penelitian yang mencolok tentang mengendalikan model AI besar dengan model AI yang lebih kecil – dianggap sebagai langkah pertama menuju mengendalikan sistem AI super cerdas. Tidak jelas siapa yang akan mengambil langkah selanjutnya pada proyek-proyek ini di OpenAI.

Startup AI Sam Altman dimulai minggu ini dengan mengungkapkan GPT-4 Omni, model perbatasan terbaru perusahaan yang menampilkan respon latensi ultra rendah yang terdengar lebih manusiawi dari sebelumnya. Banyak staf OpenAI mengomentari bagaimana model AI terbarunya lebih dekat dari sebelumnya dengan sesuatu dari fiksi ilmiah, khususnya film Her.