Tim Risiko Kecerdasan Buatan Jangka Panjang OpenAI Telah Dibubarkan

Pada bulan Juli tahun lalu, OpenAI mengumumkan pembentukan tim penelitian baru yang akan mempersiapkan kedatangan kecerdasan buatan super pintar yang mampu mengalahkan dan mengalahkan penciptanya. Ilya Sutskever, ilmuwan kepala OpenAI dan salah satu pendiri perusahaan, dinamai sebagai colead dari tim baru ini. OpenAI mengatakan tim akan menerima 20 persen dari kekuatan komputasinya. Tim “superalignment” OpenAI sekarang tidak ada lagi, perusahaan mengkonfirmasikannya. Itu terjadi setelah beberapa peneliti yang terlibat pergi, berita Selasa bahwa Sutskever meninggalkan perusahaan, dan pengunduran diri colead tim lainnya. Pekerjaan grup akan diserap ke dalam upaya penelitian OpenAI lainnya. Perginya Sutskever membuat berita utama karena meskipun dia telah membantu CEO Sam Altman memulai OpenAI pada tahun 2015 dan menetapkan arah penelitian yang mengarah ke ChatGPT, dia juga salah satu dari empat anggota dewan yang memecat Altman pada bulan November. Altman dipulihkan sebagai CEO lima hari berantakan kemudian setelah pemberontakan massal oleh staf OpenAI dan perjanjian di mana Sutskever dan dua direktur perusahaan lainnya meninggalkan dewan. Beberapa jam setelah kepergian Sutskever diumumkan pada hari Selasa, Jan Leike, mantan peneliti DeepMind yang menjadi colead tim superalignment, memposting di X bahwa dia telah mengundurkan diri. Baik Sutskever maupun Leike tidak menanggapi permintaan komentar, dan mereka tidak memberikan komentar secara publik mengenai alasan mereka meninggalkan OpenAI. Sutskever memberikan dukungan untuk jalur saat ini OpenAI dalam sebuah posting di X. “Trajektori perusahaan telah luar biasa, dan saya yakin bahwa OpenAI akan membangun AGI yang aman dan bermanfaat” di bawah kepemimpinan saat ini, tulisnya. Pencabutan tim superalignment OpenAI menambah bukti terbaru tentang goncangan di dalam perusahaan menyusul krisis tata kelola terakhir November. Dua peneliti di tim, Leopold Aschenbrenner dan Pavel Izmailov, dipecat karena bocornya rahasia perusahaan, The Information melaporkan bulan lalu. Anggota tim lainnya, William Saunders, meninggalkan OpenAI pada bulan Februari, menurut posting forum internet dengan namanya. Dua peneliti OpenAI lainnya yang bekerja pada kebijakan dan tata kelola kecerdasan buatan juga tampaknya baru-baru ini meninggalkan perusahaan. Cullen O’Keefe meninggalkan perannya sebagai kepala penelitian di garis depan kebijakan pada bulan April, menurut LinkedIn. Daniel Kokotajlo, seorang peneliti OpenAI yang telah menjadi coauthor beberapa makalah tentang bahaya model AI yang lebih mampu, “berhenti dari OpenAI karena kehilangan kepercayaan bahwa perusahaan akan bertindak dengan bertanggung jawab sekitar waktu AGI,” menurut posting di sebuah forum internet dengan namanya. Tidak ada dari para peneliti yang tampaknya pergi yang merespons permintaan komentar. OpenAI menolak untuk berkomentar tentang kepergian Sutskever atau anggota lain dari tim superalignment, atau masa depan pekerjaannya tentang risiko AI jangka panjang. Penelitian tentang risiko yang terkait dengan model yang lebih kuat sekarang akan dipimpin oleh John Schulman, yang colead tim yang bertanggung jawab untuk penyempurnaan model AI setelah pelatihan.

MEMBACA  Kesalahan Chip Apel Membocorkan Kunci Enkripsi Rahasia