Pemerintah dapat menggunakan ‘panduan’, bukan regulasi, untuk mendorong AI yang bertanggung jawab

Pemerintah sedang berusaha menavigasi keseimbangan yang sulit dengan AI generatif. Mengatur terlalu keras, dan Anda berisiko menghambat inovasi. Mengatur terlalu ringan, dan Anda membuka pintu bagi ancaman disruptif seperti deep fake dan misinformasi. AI generatif dapat meningkatkan kemampuan baik dari pelaku jahat, maupun mereka yang mencoba membela diri terhadap mereka.

Selama sesi breakout tentang inovasi AI yang bertanggung jawab minggu lalu, pembicara di Fortune Brainstorm AI Singapura mengakui bahwa aturan AI global satu ukuran akan sulit untuk dicapai.

Pemerintah sudah berbeda dalam hal seberapa banyak mereka ingin mengatur. Uni Eropa, misalnya, memiliki seperangkat aturan komprehensif yang mengatur bagaimana perusahaan mengembangkan dan menerapkan aplikasi AI.

Pemerintah lain, seperti Amerika Serikat, sedang mengembangkan apa yang Sheena Jacob, kepala kekayaan intelektual di CMS Holborn Asia, sebut sebagai “kerangka pedoman”: Tidak ada hukum yang keras, tapi lebih pada dorongan ke arah yang diinginkan.

“Regulasi yang berlebihan akan menghambat inovasi AI,” peringatkan Jacob.

Sheena mengutip Singapura sebagai contoh di mana inovasi sedang terjadi, di luar AS dan China. Meskipun Singapura memiliki strategi AI nasional, negara kota tersebut tidak memiliki hukum yang mengatur AI secara langsung. Sebaliknya, kerangka kerja keseluruhan bergantung pada para pemangku kepentingan seperti pembuat kebijakan dan komunitas penelitian untuk “bersama-sama melakukan bagian mereka” untuk memfasilitasi inovasi dalam pendekatan yang “sistematik dan seimbang.”

Seperti banyak orang lain di Brainstorm AI Singapura, pembicara di sesi breakout minggu lalu juga mengakui bahwa negara-negara kecil masih bisa bersaing dengan negara-negara besar dalam pengembangan AI.

“Tujuan utama AI adalah untuk menyamakan peluang,” kata Phoram Mehta, chief information security officer APAC di PayPal. (PayPal adalah sponsor sesi breakout minggu lalu)

MEMBACA  Apakah Anda Harus Membeli 3 Saham Dividen Tertinggi di Dow Jones?

Tetapi para ahli juga memperingatkan tentang bahaya mengabaikan risiko AI.

“Yang sering dilupakan orang adalah bahwa peretasan siber AI adalah risiko keamanan cyber di level dewan yang lebih besar dari yang lain,” kata Ayesha Khanna, salah satu pendiri Addo AI dan co-chair Fortune Brainstorm AI Singapura. “Jika Anda melakukan serangan cepat dan hanya melemparkan ratusan prompt yang … meracuni data pada model foundational, itu bisa benar-benar mengubah cara kerja AI.”

Microsoft mengumumkan pada akhir Juni bahwa mereka telah menemukan cara untuk membobol model AI generatif, menyebabkannya mengabaikan penghalangnya terhadap menghasilkan konten berbahaya terkait topik seperti bahan peledak, obat-obatan, dan rasisme.

Tetapi ketika ditanya bagaimana perusahaan dapat memblokir pelaku jahat dari sistem mereka, Mehta menyarankan bahwa AI juga dapat membantu “orang-orang baik.”

AI “membantu orang-orang baik menyamakan peluang … lebih baik untuk bersiap dan menggunakan AI dalam pertahanan tersebut, daripada menunggu dan melihat jenis respons apa yang bisa kita dapatkan.”