Dia yakin bahwa sifat itu bisa dibangun ke dalam sistem AI—tapi tidak yakin.
“Saya pikir begitu,” kata Altman ketika ditanyai pertanyaan tersebut selama wawancara dengan dekan asosiasi senior Harvard Business School, Debora Spar.
Pertanyaan tentang pemberontakan AI dulunya hanya terbatas pada fiksi ilmiah Isaac Asimov atau film aksi James Cameron. Tetapi sejak munculnya AI, hal itu telah menjadi, jika bukan masalah yang hangat, setidaknya topik perdebatan yang layak dipertimbangkan secara serius. Apa yang dulunya dianggap sebagai gagasan yang aneh, sekarang merupakan pertanyaan regulasi yang nyata.
Hubungan OpenAI dengan pemerintah telah “cukup konstruktif,” kata Altman. Dia menambahkan bahwa sebuah proyek sebesar dan sebesar pengembangan AI seharusnya merupakan proyek pemerintah.
“Dalam masyarakat yang berfungsi dengan baik, ini akan menjadi proyek pemerintah,” kata Altman. “Mengingat bahwa itu tidak terjadi, saya pikir lebih baik jika ini terjadi dengan cara ini sebagai proyek Amerika.”
Pemerintah federal belum membuat kemajuan signifikan dalam legislasi keamanan AI. Ada upaya di California untuk mengesahkan undang-undang yang akan membuat pengembang AI bertanggung jawab atas peristiwa bencana seperti digunakan untuk mengembangkan senjata pemusnah massal atau menyerang infrastruktur kritis. RUU itu lolos di legislatif tetapi ditolak oleh Gubernur California Gavin Newsom.
Beberapa tokoh terkemuka dalam bidang AI telah memperingatkan bahwa memastikan AI sepenuhnya sejalan dengan kebaikan umat manusia adalah pertanyaan kritis. Penerima Nobel Geoffrey Hinton, yang dikenal sebagai Bapak AI, mengatakan dia tidak bisa “melihat jalan yang menjamin keamanan.” CEO Tesla Elon Musk secara teratur memperingatkan bahwa AI bisa menyebabkan kepunahan umat manusia. Musk sangat berperan dalam pendirian OpenAI, memberikan dana yang signifikan kepada lembaga nirlaba tersebut pada awalnya. Dana yang membuat Altman tetap “bersyukur,” meskipun Musk menggugatnya.
Telah muncul beberapa organisasi—seperti Alignment Research Center dan startup Safe Superintelligence yang didirikan oleh mantan kepala ilmuwan OpenAI—dalam beberapa tahun terakhir yang didedikasikan semata-mata untuk pertanyaan ini.
OpenAI tidak menanggapi permintaan untuk memberikan komentar.
AI sebagaimana dirancang saat ini sangat cocok untuk perataan, kata Altman. Karena itu, dia berpendapat, akan lebih mudah dari yang mungkin terlihat untuk memastikan AI tidak membahayakan umat manusia.
“Salah satu hal yang telah berjalan cukup baik adalah kemampuan untuk meratakan sistem AI agar berperilaku dengan cara tertentu,” katanya. “Jadi jika kita bisa mengartikulasikan apa artinya dalam sejumlah kasus yang berbeda, maka, ya, saya pikir kita bisa membuat sistem itu bertindak dengan cara tersebut.”
Altman juga memiliki ide yang khas untuk bagaimana OpenAI dan pengembang lain bisa “mengartikulasikan” prinsip dan cita-cita yang diperlukan untuk memastikan AI tetap berada di pihak kita: menggunakan AI untuk melakukan polling kepada masyarakat luas. Dia menyarankan untuk bertanya kepada pengguna chatbot AI tentang nilai-nilai mereka dan kemudian menggunakan jawaban tersebut untuk menentukan bagaimana cara meratakan AI untuk melindungi umat manusia.
“Saya tertarik dengan eksperimen berpikir [di mana] AI berbincang dengan Anda selama beberapa jam tentang sistem nilai Anda,” katanya. “Melakukan itu dengan saya, dengan semua orang lain. Dan kemudian mengatakan ‘ok saya tidak bisa membuat semua orang senang sepanjang waktu.’”
Altman berharap dengan berkomunikasi dan memahami miliaran orang “pada tingkat yang mendalam,” AI dapat mengidentifikasi tantangan yang dihadapi oleh masyarakat secara lebih luas. Dari situ, AI bisa mencapai konsensus tentang apa yang perlu dilakukannya untuk mencapai kesejahteraan umum.
AI memiliki tim internal yang didedikasikan untuk superalignment, yang bertugas memastikan bahwa kecerdasan super digital di masa depan tidak menjadi liar dan menyebabkan kerusakan yang tak terhitung. Pada Desember 2023, kelompok tersebut merilis dokumen penelitian awal yang menunjukkan bahwa mereka sedang mengerjakan proses di mana satu model bahasa besar akan mengawasi yang lain. Pada musim semi ini, pemimpin tim tersebut, Sutskever dan Jan Leike, meninggalkan OpenAI. Tim mereka dibubarkan, menurut laporan dari CNBC saat itu.
Leike mengatakan dia pergi karena meningkatnya perselisihan dengan kepemimpinan OpenAI tentang komitmennya terhadap keamanan saat perusahaan bergerak menuju kecerdasan buatan umum, istilah yang merujuk pada AI yang secerdas manusia.
“Membangun mesin yang lebih cerdas dari manusia adalah usaha yang berbahaya secara inheren,” tulis Leike di X. “OpenAI membawa tanggung jawab besar atas nama seluruh umat manusia. Tetapi selama beberapa tahun terakhir, budaya dan proses keamanan telah dikesampingkan demi produk-produk yang mengkilap.”
Ketika Leike pergi, Altman menulis di X bahwa dia “sangat menghargai kontribusi [nya] terhadap penelitian perataan dan budaya keamanan OpenAI.”
Bagaimana jarak Anda dari para pemimpin bisnis terkuat di dunia? Telusuri siapa yang masuk dalam daftar baru kami tentang 100 Orang Paling Berkuasa di Bisnis. Selain itu, pelajari tentang metrik yang kami gunakan untuk membuatnya.