OpenAI dihantui oleh kekhawatiran keselamatan

OpenAI adalah pemimpin dalam perlombaan untuk mengembangkan kecerdasan buatan secerdas manusia. Namun, karyawan terus muncul di pers dan di podcast untuk menyuarakan kekhawatiran serius mereka tentang keamanan di laboratorium riset nirlaba senilai $80 miliar. Yang terbaru berasal dari The Washington Post, di mana sumber anonim mengklaim OpenAI tergesa-gesa melalui tes keamanan dan merayakan produk mereka sebelum memastikan keamanannya.

” Mereka merencanakan pesta peluncuran sebelum mengetahui apakah aman untuk diluncurkan,” kata seorang karyawan anonim kepada The Washington Post. “Kami basically gagal dalam prosesnya.”

Masalah keamanan menjadi perhatian besar di OpenAI – dan terus muncul. Karyawan saat ini dan mantan di OpenAI baru-baru ini menandatangani surat terbuka yang menuntut praktik keamanan dan transparansi yang lebih baik dari startup, tidak lama setelah tim keamanannya dibubarkan setelah kepulangan salah satu pendiri, Ilya Sutskever. Jan Leike, seorang peneliti kunci OpenAI, mengundurkan diri tidak lama setelahnya, mengklaim dalam sebuah pos bahwa “budaya dan proses keamanan telah diabaikan untuk produk-produk yang mengkilap” di perusahaan.

Keamanan adalah inti dari piagam OpenAI, dengan klaim bahwa OpenAI akan membantu organisasi lain untuk memajukan keamanan jika AGI dicapai oleh pesaing, bukan melanjutkan persaingan. Perusahaan ini mengklaim berdedikasi untuk menyelesaikan masalah keamanan yang melekat pada sistem yang begitu besar dan kompleks. OpenAI bahkan menjaga model-model miliknya secara pribadi, daripada terbuka (menimbulkan celaan dan gugatan), demi keamanan. Peringatan-peringatan itu membuat terdengar seolah keamanan telah diutamakan meskipun begitu penting bagi budaya dan struktur perusahaan.

Jelas bahwa OpenAI berada di bawah tekanan – namun upaya hubungan masyarakat saja tidak akan cukup untuk melindungi masyarakat.

“Kami bangga dengan catatan kami dalam menyediakan sistem kecerdasan buatan yang paling mampu dan aman dan percaya pada pendekatan ilmiah kami dalam mengatasi risiko,” kata juru bicara OpenAI, Taya Christianson, dalam sebuah pernyataan kepada The Verge. “Debat yang ketat sangat penting mengingat signifikansi teknologi ini, dan kami akan terus berinteraksi dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia demi misi kami.”

MEMBACA  OpenAI Mencari Lebih Banyak Korban di Hollywood

Taruhannya seputar keamanan, menurut OpenAI dan orang lain yang mempelajari teknologi yang muncul, sangat besar. “Pengembangan AI frontier saat ini menimbulkan risiko mendesak dan berkembang terhadap keamanan nasional,” laporan yang dipesan oleh Departemen Luar Negeri AS pada Maret mengatakan. “Munculnya AI canggih dan AGI memiliki potensi untuk mengganggu keamanan global dengan cara yang mengingatkan pada pengenalan senjata nuklir.”

Bunyi alarm di OpenAI juga menyusul kudeta ruang rapat tahun lalu yang sebentar menggulingkan CEO Sam Altman. Dewan mengatakan dia dipecat karena gagal “konsisten jujur dalam komunikasinya,” yang menyebabkan penyelidikan yang sedikit menghibur staf.

Juru bicara OpenAI, Lindsey Held, mengatakan kepada Post bahwa peluncuran GPT-4o “tidak mengambil jalan pintas” dalam hal keamanan, tetapi perwakilan perusahaan lain yang tidak disebutkan namanya mengakui bahwa jadwal peninjauan keamanan dipadatkan menjadi satu minggu. Kami “sedang memikirkan ulang cara kita melakukannya,” kata perwakilan anonim tersebut kepada Post. “Ini bukan cara terbaik untuk melakukannya.”

Apakah Anda tahu lebih banyak tentang apa yang terjadi di dalam OpenAI? Saya akan senang berbicara. Anda dapat menghubungi saya secara aman di Signal @kylie.01 atau melalui email di [email protected].

Di tengah kontroversi yang terus-menerus (ingat insiden Her?), OpenAI telah mencoba meredakan kekhawatiran dengan beberapa pengumuman tepat waktu. Pekan ini, perusahaan ini mengumumkan bahwa mereka akan bekerja sama dengan Los Alamos National Laboratory untuk menjelajahi bagaimana model AI canggih, seperti GPT-4o, dapat membantu secara aman dalam penelitian biosains, dan dalam pengumuman yang sama mereka berkali-kali menunjuk pada catatan keamanan Los Alamos sendiri. Pada hari berikutnya, seorang juru bicara anonim mengatakan kepada Bloomberg bahwa OpenAI membuat skala internal untuk melacak kemajuan model bahasa besar mereka menuju kecerdasan buatan umum.

MEMBACA  Apple Meningkatkan Jarak Uji Coba Kendaraan Otonomnya Empat Kali Lipat Tahun Lalu

Pengumuman minggu ini yang berfokus pada keamanan dari OpenAI tampaknya merupakan hiasan jendela defensif menghadapi kritik yang semakin meningkat terhadap praktik keamanannya. Jelas bahwa OpenAI berada di bawah tekanan – namun upaya hubungan masyarakat saja tidak akan cukup untuk melindungi masyarakat. Yang benar-benar penting adalah dampak potensial pada mereka di luar gelembung Silicon Valley jika OpenAI terus gagal mengembangkan AI dengan protokol keamanan yang ketat, sebagaimana klaim internal: orang rata-rata tidak memiliki suara dalam pengembangan AGI yang diprivatisasi, namun mereka tidak memiliki pilihan dalam seberapa terlindung mereka dari kreasi OpenAI.

“Alat AI dapat menjadi revolusioner,” kata ketua FTC Lina Khan kepada Bloomberg pada November. Namun, “saat ini,” katanya, ada kekhawatiran bahwa “input penting dari alat-alat ini dikendalikan oleh sejumlah perusahaan yang relatif sedikit.”

Jika klaim-klaim terhadap protokol keamanan mereka akurat, ini tentu menimbulkan pertanyaan serius tentang kelayakan OpenAI untuk peran ini sebagai penjaga AGI, peran yang organisasi ini pada dasarnya telah tetapkan untuk dirinya sendiri. Membiarkan satu kelompok di San Francisco mengendalikan teknologi yang potensial mengubah masyarakat adalah alasan untuk kekhawatiran, dan ada permintaan mendesak bahkan di dalam barisan mereka sendiri untuk transparansi dan keamanan sekarang lebih dari sebelumnya.