Singapura mencari kerangka pengelolaan yang lebih luas untuk AI generatif.

XH4D/Getty Images

Singapura telah merilis kerangka tata kelola draf tentang kecerdasan buatan generatif (GenAI) yang menurutnya diperlukan untuk mengatasi isu-isu yang muncul, termasuk pelaporan insiden dan provenansi konten.

Model yang diusulkan ini membangun pada kerangka tata kelola AI yang sudah ada di negara tersebut, yang pertama kali dirilis pada tahun 2019 dan terakhir diperbarui pada tahun 2020.

GenAI memiliki potensi besar untuk mengubah “dalam dan di luar” apa yang dapat dicapai oleh AI tradisional, tetapi juga memiliki risiko, kata AI Verify Foundation dan Infocomm Media Development Authority (IMDA) dalam sebuah pernyataan bersama.

Terdapat konsensus global yang semakin berkembang bahwa prinsip-prinsip konsisten diperlukan untuk menciptakan lingkungan di mana GenAI dapat digunakan secara aman dan percaya diri, kata lembaga pemerintah Singapura.

“Penggunaan dan dampak AI tidak terbatas pada negara-negara tertentu,” kata mereka. “Kerangka kerja yang diusulkan ini bertujuan untuk memfasilitasi percakapan internasional antara pembuat kebijakan, industri, dan komunitas penelitian, untuk memungkinkan pengembangan yang tepercaya secara global.”

Dokumen draf ini mencakup proposal dari sebuah makalah diskusi yang dirilis oleh IMDA pada bulan Juni lalu, yang mengidentifikasi enam risiko yang terkait dengan GenAI, termasuk halusinasi, tantangan hak cipta, dan bias tersemat, serta sebuah kerangka kerja mengenai bagaimana risiko-risiko tersebut dapat diatasi.

Kerangka kerja GenAI yang diusulkan juga mengambil wawasan dari inisiatif-inisiatif sebelumnya, termasuk katalog tentang bagaimana menilai keselamatan model GenAI dan pengujian yang dilakukan melalui evaluasi sandbox.

Model kerangka kerja GenAI yang diusulkan mencakup sembilan area kunci yang diyakini oleh Singapura memiliki peran penting dalam mendukung ekosistem AI yang terpercaya. Ini berkaitan dengan prinsip bahwa keputusan yang didukung oleh AI harus dapat dijelaskan, transparan, dan adil. Kerangka kerja ini juga menawarkan saran praktis yang dapat diterapkan oleh pengembang model AI dan pembuat kebijakan sebagai langkah awal, kata IMDA dan AI Verify.

MEMBACA  Kisah Hadian dan Handaruhing, Menjadi Inspirasi untuk Melakukan Haji di Usia Muda

Salah satu dari sembilan komponen ini melihat provenansi konten: Harus ada transparansi mengenai di mana dan bagaimana konten dihasilkan, sehingga konsumen dapat menentukan bagaimana memperlakukan konten online. Karena mudah dibuat, konten yang dihasilkan oleh AI seperti deepfake dapat memperburuk informasi yang salah, kata lembaga-lembaga Singapura tersebut.

Mengingat bahwa pemerintah lain sedang mencari solusi teknis seperti penandaan digital dan provenansi kriptografis untuk mengatasi masalah ini, mereka mengatakan bahwa solusi-solusi ini bertujuan untuk menandai dan memberikan informasi tambahan, dan digunakan untuk menandai konten yang dibuat atau dimodifikasi oleh AI.

Kebijakan harus “dirancang dengan hati-hati” untuk memfasilitasi penggunaan praktis dari alat-alat ini dalam konteks yang tepat, menurut kerangka kerja draf tersebut. Misalnya, mungkin tidak memungkinkan bagi semua konten yang dibuat atau diedit untuk mencakup teknologi-teknologi ini dalam waktu dekat dan informasi provenansi juga dapat dihapus. Pelaku ancaman dapat menemukan cara lain untuk mengelak dari alat-alat tersebut.

Kerangka kerja draf ini menyarankan untuk bekerja sama dengan penerbit, termasuk platform media sosial dan media lainnya, untuk mendukung penyisipan dan tampilan tanda air digital serta rincian provenansi lainnya. Ini juga harus diimplementasikan dengan baik dan aman untuk mengurangi risiko pengelakan.

Komponen penting lainnya berfokus pada keamanan di mana GenAI telah membawa risiko-risiko baru, seperti serangan cepat yang terinfeksi melalui arsitektur model. Ini memungkinkan pelaku ancaman untuk mengambil data sensitif atau bobot model, menurut kerangka kerja draf tersebut.

Kerangka kerja ini merekomendasikan bahwa penyempurnaan diperlukan untuk konsep keamanan yang diterapkan pada siklus hidup pengembangan sistem. Ini perlu mempertimbangkan, misalnya, bagaimana kemampuan untuk menginjeksi bahasa alami sebagai input dapat menciptakan tantangan saat mengimplementasikan kontrol keamanan yang tepat.

MEMBACA  Saham meme kembali saat trader legendaris Roaring Kitty kembali, meninggalkan para shorters dalam kekecewaan

Sifat probabilistik dari GenAI juga dapat membawa tantangan baru bagi teknik evaluasi tradisional, yang digunakan untuk penyempurnaan sistem dan mitigasi risiko dalam siklus hidup pengembangan.

Kerangka kerja ini menyerukan pengembangan mekanisme keamanan baru, yang dapat mencakup alat-alat moderasi input untuk mendeteksi permintaan yang tidak aman serta alat-alat forensik digital untuk GenAI, yang digunakan untuk menyelidiki dan menganalisis data digital untuk merekonstruksi insiden keamanan siber.

“Perlu ada keseimbangan yang hati-hati antara perlindungan pengguna dan penggerak inovasi,” kata lembaga pemerintah Singapura mengenai kerangka kerja pemerintah draf tersebut. “Telah ada berbagai diskusi internasional yang menarik topik terkait dan relevan tentang akuntabilitas, hak cipta, dan informasi yang salah, antara lain. Masalah-masalah ini saling terkait dan perlu dipandang secara praktis dan menyeluruh. Tidak ada satu langkah pun yang akan menjadi solusi sempurna.”

Dengan tata kelola AI yang masih dalam tahap awal, membangun konsensus internasional juga sangat penting, kata mereka, menunjuk pada upaya Singapura untuk bekerja sama dengan pemerintah seperti Amerika Serikat untuk menyelaraskan kerangka kerja tata kelola AI mereka masing-masing.

Singapura menerima umpan balik tentang kerangka kerja tata kelola GenAI mereka hingga tanggal 15 Maret.