Direktur Google DeepMind mendesak kejelasan dan konsistensi dalam regulasi AI

\”

Dalam menghadapi veto gubernur California terhadap apa yang akan menjadi undang-undang keamanan kecerdasan buatan yang luas, seorang eksekutif Google DeepMind meminta konsensus tentang apa yang merupakan kecerdasan buatan yang aman, bertanggung jawab, dan berpusat pada manusia.

“Itu harapan saya untuk bidang ini, bahwa kita bisa mencapai konsistensi, sehingga kita bisa melihat semua manfaat dari teknologi ini,” kata Terra Terwilliger, direktur inisiatif strategis di Google DeepMind, unit penelitian kecerdasan buatan perusahaan tersebut. Dia berbicara di Fortune’s Most Powerful Women Summit pada hari Rabu bersama CEO dan pendiri January AI Noosheen Hashemi, mitra umum Eclipse Ventures Aidan Madigan-Curtis, dan CEO audit dan jaminan Dipti Gulati di Deloitte & Touche LLP US.

Para wanita tersebut membahas SB-1047, rancangan undang-undang California yang banyak dibicarakan yang akan mewajibkan pengembang model kecerdasan buatan terbesar untuk memenuhi persyaratan pengujian keamanan tertentu dan mitigasi risiko. Madigan-Curtis menyarankan bahwa jika perusahaan seperti OpenAI sedang membangun model yang benar-benar kuat seperti yang mereka katakan, seharusnya ada beberapa kewajiban hukum untuk mengembangkannya dengan aman.

“Itu seperti bagaimana sistem kita bekerja, bukan? Itu dorongan dan tarik-menarik,” kata Madigan-Curtis. “Hal yang membuat menjadi seorang dokter menakutkan adalah Anda bisa didakwa karena kelalaian medis.”

Madigan-Curtis mencatat ketentuan “kill-switch” dalam rancangan undang-undang California yang sekarat, yang akan memerlukan perusahaan untuk membuat cara untuk mematikan model mereka jika model tersebut digunakan untuk sesuatu yang bersifat katalis, seperti untuk membangun senjata pemusnah massal.

“Jika model Anda digunakan untuk menakut-nakuti suatu populasi tertentu, seharusnya kita bisa mematikannya, atau, tahu, mencegah penggunaannya?” tanya dia.

Terwilliger dari DeepMind ingin melihat regulasi yang memperhitungkan berbagai tingkat tumpukan kecerdasan buatan. Dia mengatakan model-model foundational memiliki tanggung jawab yang berbeda dari aplikasi yang menggunakan model tersebut.

MEMBACA  Peloton akan menagih biaya aktivasi sebesar $95 untuk sepeda bekas

“Sangat penting bagi kita semua untuk membantu regulator memahami perbedaan-perbedaan ini agar kita memiliki regulasi yang akan stabil dan masuk akal,” katanya.

Tetapi dorongan untuk membangun dengan bertanggung jawab tidak harus datang dari pemerintah, kata Terwilliger. Bahkan dengan persyaratan regulasi yang tidak pasti, membangun kecerdasan buatan dengan bertanggung jawab akan menjadi kunci untuk adopsi teknologi jangka panjang, tambahnya. Hal itu berlaku untuk setiap tingkat teknologi, mulai dari memastikan data bersih, hingga menetapkan pagar pembatas untuk model.

“Saya pikir kita harus percaya bahwa tanggung jawab adalah keunggulan kompetitif, dan oleh karena itu memahami bagaimana menjadi bertanggung jawab di semua tingkat tumpukan tersebut akan membuat perbedaan,” katanya.

\”