Pengumuman Raimondo ini datang pada hari yang sama ketika Google membanggakan rilis data baru yang menunjukkan kehebatan model kecerdasan buatan terbaru mereka, Gemini, yang melampaui GPT-4 dari OpenAI yang menggerakkan ChatGPT, dalam beberapa benchmark industri. Departemen Perdagangan AS mungkin akan mendapatkan peringatan awal tentang penerus Gemini, jika proyek tersebut menggunakan cukup banyak sumber daya komputasi awan Google yang melimpah.
Kemajuan pesat di bidang kecerdasan buatan tahun lalu mendorong beberapa ahli dan eksekutif kecerdasan buatan untuk meminta jeda sementara dalam pengembangan apa pun yang lebih kuat dari GPT-4, model yang saat ini digunakan untuk ChatGPT.
Samuel Hammond, ekonom senior di Foundation for American Innovation, sebuah lembaga pemikir, mengatakan tantangan utama bagi pemerintah AS adalah bahwa sebuah model tidak selalu harus melampaui ambang batas perhitungan dalam pelatihan untuk berpotensi berbahaya.
Dan Hendrycks, direktur Center for AI Safety, sebuah lembaga nirlaba, mengatakan persyaratan ini proporsional mengingat perkembangan terkini dalam kecerdasan buatan, dan kekhawatiran tentang kekuatannya. “Perusahaan-perusahaan menghabiskan miliaran dolar untuk pelatihan kecerdasan buatan, dan para CEO mereka memperingatkan bahwa kecerdasan buatan bisa menjadi superintelejen dalam beberapa tahun mendatang,” katanya. “Tampaknya wajar bagi pemerintah untuk mengetahui apa yang dilakukan perusahaan kecerdasan buatan.”
Anthony Aguirre, direktur eksekutif Future of Life Institute, sebuah lembaga nirlaba yang berdedikasi untuk memastikan teknologi transformatif bermanfaat bagi umat manusia, setuju. “Saat ini, eksperimen-eksperimen raksasa berjalan tanpa pengawasan atau regulasi dari luar,” katanya. “Melaporkan pelatihan kecerdasan buatan dan langkah-langkah keamanan terkait merupakan langkah penting. Namun, masih diperlukan banyak hal lainnya. Ada kesepakatan bipartisip kuat tentang perlunya regulasi kecerdasan buatan dan semoga kongres dapat bertindak segera.”
Raimondo mengatakan pada acara Hoover Institution Jumat bahwa National Institutes of Standards and Technology (NIST) saat ini sedang bekerja untuk menentukan standar pengujian keamanan model kecerdasan buatan, sebagai bagian dari pembentukan Institut Keamanan Kecerdasan Buatan Pemerintah AS baru. Menentukan seberapa berisiko sebuah model kecerdasan buatan biasanya melibatkan penyelidikan terhadap model tersebut untuk mencoba memunculkan perilaku atau output yang bermasalah, proses yang dikenal sebagai “red teaming.”
Raimondo mengatakan bahwa departemennya sedang mengerjakan pedoman yang akan membantu perusahaan memahami lebih baik risiko yang mungkin terkandung dalam model-model yang mereka buat. Pedoman ini dapat mencakup cara-cara untuk memastikan kecerdasan buatan tidak dapat digunakan untuk melakukan pelanggaran hak asasi manusia, katanya.
Perintah eksekutif mengenai kecerdasan buatan pada bulan Oktober memberikan waktu hingga 26 Juli bagi NIST untuk menetapkan standar tersebut, tetapi beberapa orang yang bekerja dengan lembaga tersebut mengatakan bahwa NIST kekurangan dana atau keahlian yang diperlukan untuk melakukannya dengan baik.