Karyawan OpenAI Memperingatkan Budaya Risiko dan Balasan

Sebuah kelompok pegawai OpenAI yang sekarang dan dahulu telah mengeluarkan surat terbuka yang memperingatkan bahwa perusahaan dan pesaingnya sedang membangun kecerdasan buatan dengan risiko berlebihan, tanpa pengawasan yang memadai, dan sambil membungkam pegawai yang mungkin menyaksikan aktivitas yang tidak bertanggung jawab. “Risiko-risiko ini bervariasi mulai dari penguatan ketimpangan yang sudah ada, hingga manipulasi dan disinformasi, hingga kehilangan kendali atas sistem AI otomatis yang berpotensi menyebabkan kepunahan manusia,” bunyi surat tersebut yang dipublikasikan di righttowarn.ai. “Selama tidak ada pengawasan pemerintah yang efektif terhadap perusahaan-perusahaan ini, pegawai yang sekarang maupun yang dahulu adalah beberapa dari sedikit orang yang dapat meminta pertanggungjawaban mereka.” Surat tersebut menyerukan agar bukan hanya OpenAI tetapi semua perusahaan AI berkomitmen untuk tidak menghukum pegawai yang bersuara tentang aktivitas mereka. Juga menyerukan agar perusahaan menetapkan cara yang “verifiable” bagi pekerja untuk memberikan umpan balik anonim tentang aktivitas mereka. “Perlindungan whistleblower biasa tidak mencukupi karena fokus pada aktivitas ilegal, sedangkan banyak risiko yang kami khawatirkan belum diatur,” bunyi surat tersebut. “Beberapa dari kami wajar takut akan berbagai bentuk balasan, mengingat sejarah kasus semacam itu di seluruh industri.” OpenAI mendapat kritik bulan lalu setelah sebuah artikel Vox mengungkap bahwa perusahaan tersebut telah mengancam akan mengambil kembali ekuitas pegawai jika mereka tidak menandatangani perjanjian non-penjeleman yang melarang mereka mengkritik perusahaan atau bahkan menyebutkan keberadaan perjanjian tersebut. CEO OpenAI, Sam Altman, mengatakan di X baru-baru ini bahwa ia tidak menyadari adanya perjanjian semacam itu dan perusahaan belum pernah mengambil kembali ekuitas siapa pun. Altman juga mengatakan klausul itu akan dihapus, membebaskan pegawai untuk bersuara. Mendapat Tip? Apakah Anda seorang pegawai OpenAI yang sekarang atau dahulu? Kami ingin mendengar dari Anda. Menggunakan ponsel atau komputer nonkerja, hubungi Will Knight di [email protected] atau aman di Signal di wak.01. OpenAI juga baru-baru ini mengubah pendekatannya dalam mengelola keamanan. Bulan lalu, sebuah kelompok peneliti OpenAI yang bertanggung jawab untuk menilai dan menanggulangi risiko jangka panjang yang ditimbulkan oleh model AI yang lebih kuat dari perusahaan itu secara efektif dibubarkan setelah beberapa tokoh terkemuka pergi dan anggota tim yang tersisa diserap ke dalam kelompok lain. Beberapa minggu kemudian, perusahaan mengumumkan bahwa ia telah membuat Komite Keamanan dan Keamanan, dipimpin oleh Altman dan anggota dewan lainnya. November lalu, Altman dipecat oleh dewan OpenAI karena diduga tidak mengungkapkan informasi dan dengan sengaja menyesatkan mereka. Setelah perdebatan yang sangat publik, Altman kembali ke perusahaan dan sebagian besar dewan dipecat. “Kami bangga dengan catatan kami dalam menyediakan sistem AI yang paling mampu dan aman dan percaya pada pendekatan ilmiah kami dalam mengatasi risiko,” kata juru bicara OpenAI Liz Bourgeois dalam sebuah pernyataan. “Kami setuju bahwa perdebatan yang ketat sangat penting mengingat pentingnya teknologi ini dan kami akan terus berkomunikasi dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia.” Para penandatangan surat tersebut termasuk orang-orang yang bekerja pada keamanan dan tata kelola di OpenAI, pegawai saat ini yang menandatangani secara anonim, dan peneliti yang saat ini bekerja di perusahaan AI pesaing. Juga didukung oleh beberapa peneliti AI terkenal termasuk Geoffrey Hinton dan Yoshua Bengio, yang keduanya memenangkan Turing Award untuk riset AI yang berpionir, dan Stuart Russell, seorang pakar terkemuka dalam keamanan AI.

MEMBACA  Tidak, 'Leave the World Behind' dan 'Civil War' Tidak Terjadi di Depan Mata Anda