Ketika dewan OpenAI memecat Sam Altman pada akhir 2023, anggota dewan mengatakan bahwa dia “tidak konsisten jujur dalam komunikasinya.” Pernyataan tersebut memunculkan lebih banyak pertanyaan daripada jawaban, secara tidak langsung menyebut Sam Altman sebagai pembohong, tetapi tentang apa sebenarnya? Enam bulan kemudian, para kreatif dan mantan karyawan sekali lagi meminta publik untuk mempertanyakan kepercayaan OpenAI.
Saya Beri Salinan Mata Saya kepada Sam Altman | Teknologi Masa Depan
Bulan ini, OpenAI mengklaim suara ChatGPT, Sky, tidak pernah bermaksud menyerupai Scarlett Johannson dari Her, menyebabkan aktris pemenang penghargaan itu mengeluarkan pernyataan publik yang merugikan dan ancaman tindakan hukum. Suara yang dimaksud sekarang sudah dihapus. Juga bulan ini, dua nama besar dalam komunitas kecerdasan buatan yang memimpin tim keamanan di dalam OpenAI keluar. Salah satu eksekutif, Jan Leike, mengatakan saat dia keluar bahwa “budaya dan proses keamanan OpenAI telah menjadi sekunder untuk produk-produk yang mengkilap.” Seperti yang ditulis Ed Zitron, semakin sulit untuk percaya pada OpenAI sepenuhnya.
Pertama, klaim bahwa Sky tidak terdengar seperti Johannson benar-benar tidak masuk akal. Gizmodo menulis artikel mengklaim bahwa itu terdengar seperti film Her tepat setelah peluncuran GPT-4 Omni, seperti juga banyak publikasi lainnya. Para eksekutif OpenAI tampaknya bercanda mengenai kemiripan tersebut sekitar saat peluncuran. Altman mengirimkan tweet dengan kata “her” pada hari itu. Lead Penelitian Audio AGI OpenAI memiliki tangkapan layar dari film tersebut sebagai latar belakang di X. Kita semua bisa melihat apa yang diinginkan oleh OpenAI. Kedua, Johansson mengklaim bahwa Altman mendekatinya dua kali tentang menyuarakan asisten audio ChatGPT. OpenAI mengatakan Sky adalah seorang aktor yang berbeda sama sekali, tetapi klaim tersebut menimbulkan kecurigaan bagi banyak orang.
Minggu lalu, Altman mengatakan dia “merasa malu” karena tidak mengetahui bahwa perusahaannya memaksa karyawan untuk diam tentang pengalaman buruk di OpenAI seumur hidup atau harus melepaskan ekuitas mereka. Perjanjian non-disparagement seumur hidup tersebut terungkap oleh laporan Vox, berbicara dengan salah satu mantan karyawan OpenAI yang menolak untuk menandatanganinya. Meskipun banyak perusahaan memiliki perjanjian non-disclosure, tidak setiap hari Anda melihat yang seekstrim ini.
Altman mengatakan dalam sebuah wawancara pada bulan Januari bahwa dia tidak tahu apakah Ilmuwan Kepala OpenAI Ilya Sutskever masih bekerja di perusahaan. Baru minggu lalu Sutskever dan rekannya dari Superalignment, Leike, keluar dari OpenAI. Leike mengatakan sumber daya Superalignment telah dialihkan ke bagian lain dari perusahaan selama berbulan-bulan.
Pada bulan Maret, Chief Technology Officer Mira Murati mengatakan bahwa dia tidak yakin apakah Sora dilatih dari video YouTube. Chief Operating Officer Brad Lightcap semakin memperjelas kebingungan ini dengan menghindari pertanyaan tentang hal itu di Tech Summit Bloomberg pada bulan Mei. Meskipun demikian, The New York Times melaporkan bahwa anggota senior OpenAI terlibat dalam mentranskripsi video YouTube untuk melatih model AI. Pada hari Senin, CEO Google Sundar Pichai mengatakan kepada The Verge bahwa jika OpenAI melatih dari video YouTube, itu tidak akan pantas.
Pada akhirnya, OpenAI dibungkus dalam misteri, dan pertanyaan tentang “ketidakjujuran yang tidak konsisten” Sam Altman tidak akan hilang. Hal ini mungkin merusak reputasi OpenAI, tetapi misteri juga berfungsi untuk keuntungan OpenAI. Perusahaan telah melukiskan dirinya sebagai startup yang rahasia dengan kunci untuk dunia futuristik kita, dan dengan demikian, OpenAI telah berhasil menarik perhatian kolektif kita. Selama misteri itu, perusahaan terus mengirimkan produk kecerdasan buatan canggih. Meskipun demikian, sulit untuk tidak meragukan komunikasi dari OpenAI, sebuah perusahaan yang dibangun dengan dasar menjadi “terbuka”.