Dapatkah pemerintah mengubah pembicaraan keselamatan AI menjadi tindakan?

Pada Asia Tech x Singapore 2024 summit, beberapa pembicara siap untuk diskusi tingkat tinggi dan kesadaran yang meningkat tentang pentingnya keamanan kecerdasan buatan (AI) untuk berubah menjadi tindakan. Banyak yang mencari untuk mempersiapkan semua orang mulai dari organisasi hingga individu dengan alat untuk menggunakan teknologi ini dengan benar. Juga: Cara menggunakan ChatGPT untuk menganalisis PDF secara gratis

“Langkah yang pragmatis dan praktis menuju tindakan. Itu yang kurang,” kata Ieva Martinekaite, kepala riset dan inovasi di Telenor Group, yang berbicara dengan ZDNET di sela-sela summit. Martinekaite adalah anggota dewan Norwegian Open AI Lab dan anggota Dewan Penasehat Singapura tentang Penggunaan Etis AI dan Data. Dia juga pernah menjadi Anggota Pakar dalam Kelompok Ahli Tinggi Komisi Eropa tentang AI dari 2018 hingga 2020. Martinekaite mencatat bahwa pejabat tinggi juga mulai mengakui masalah ini.

Peserta konferensi, yang melibatkan menteri pemerintah tingkat tinggi dari berbagai negara, bercanda bahwa mereka hanya membakar bahan bakar pesawat dengan menghadiri pertemuan tingkat tinggi tentang keamanan AI, yang terakhir di Korea Selatan dan Inggris, mengingat mereka belum memiliki langkah konkret yang ditunjukkan. Martinekaite mengatakan sudah waktunya bagi pemerintah dan badan internasional untuk mulai mengeluarkan buku panduan, kerangka kerja, dan alat benchmarking untuk membantu bisnis dan pengguna memastikan bahwa mereka menggunakan dan mengonsumsi AI dengan aman. Dia menambahkan bahwa investasi yang berkelanjutan juga diperlukan untuk memfasilitasi upaya tersebut.

Deepfakes yang dihasilkan AI, khususnya, membawa risiko yang signifikan dan dapat memengaruhi infrastruktur kritis, katanya. Mereka sudah menjadi kenyataan hari ini: gambar dan video politisi, tokoh publik, dan bahkan Taylor Swift telah muncul. Juga: Ada lebih banyak deepfakes politik daripada yang Anda kira

Martinekaite menambahkan bahwa teknologi ini sekarang lebih canggih daripada setahun yang lalu, membuatnya semakin sulit untuk mengidentifikasi deepfakes. Para penjahat dunia maya dapat memanfaatkan teknologi ini untuk membantu mereka mencuri kredensial dan secara ilegal mendapatkan akses ke sistem dan data. “Peretas tidak meretas, mereka masuk,” katanya. Ini adalah masalah krusial di beberapa sektor, seperti telekomunikasi, di mana deepfakes dapat digunakan untuk menembus infrastruktur kritis dan memperkuat serangan siber. Martinekaite mencatat bahwa ID karyawan dapat dipalsukan dan digunakan untuk mengakses pusat data dan sistem TI, menambahkan bahwa jika inersia ini tetap tidak diatasi, dunia berisiko mengalami serangan yang berpotensi menghancurkan.

MEMBACA  Selama Kehamilan, Plasenta Memanipulasi Sistem Kekebalan Tubuh untuk Melindungi Janin.

Pengguna perlu dilengkapi dengan pelatihan dan alat yang diperlukan untuk mengidentifikasi dan melawan risiko tersebut, katanya. Teknologi untuk mendeteksi dan mencegah konten yang dihasilkan AI, termasuk teks dan gambar, juga perlu dikembangkan, seperti pemberian watermark digital dan forensik media. Martinekaite berpikir bahwa ini harus diterapkan bersamaan dengan legislasi dan kerjasama internasional.

Namun, dia mencatat bahwa kerangka hukum tidak boleh mengatur teknologi, atau inovasi AI bisa terhambat dan mempengaruhi kemajuan potensial dalam bidang kesehatan, misalnya. Sebaliknya, regulasi harus mengatasi di mana teknologi deepfake memiliki dampak terbesar, seperti infrastruktur kritis dan layanan pemerintah. Persyaratan seperti pemberian watermark, otentikasi sumber, dan menempatkan pagar di sekitar akses data dan pelacakan kemudian dapat diterapkan untuk sektor berisiko tinggi dan penyedia teknologi yang relevan, kata Martinekaite.

Menurut Natasha Crampton, chief responsible AI officer Microsoft, perusahaan telah melihat peningkatan deepfakes, gambar tanpa persetujuan, dan pelecehan cyber. Selama diskusi panel di summit, dia mengatakan Microsoft berfokus pada pelacakan konten online yang menipu seputar pemilihan, terutama dengan beberapa pemilihan yang berlangsung tahun ini.

Stefan Schnorr, sekretaris negara dari Kementerian Federal Digital dan Transportasi Jerman, mengatakan bahwa deepfakes berpotensi menyebar informasi palsu dan menyesatkan pemilih, yang mengakibatkan kehilangan kepercayaan pada lembaga demokratis. Juga: Apa yang Dikredensialkan Konten TikTok berarti bagi Anda

Perlindungan terhadap hal ini juga melibatkan komitmen untuk melindungi data pribadi dan privasi, tambah Schnorr. Dia menekankan perlunya kerja sama internasional dan perusahaan teknologi untuk mematuhi hukum cyber yang diterapkan untuk mendorong keamanan AI, seperti EU AI Act.

Jika dibiarkan berkembang tanpa hambatan, deepfakes dapat memengaruhi pengambilan keputusan, kata Zeng Yi, direktur Brain-inspired Cognitive Intelligence Lab dan The International Research Center for AI Ethics and Governance, Institute of Automation, Chinese Academy of Sciences. Juga menekankan perlunya kerja sama internasional, Zeng menyarankan bahwa fasilitas “observatorium” deepfake harus didirikan di seluruh dunia untuk meningkatkan pemahaman yang lebih baik dan pertukaran informasi tentang disinformasi dalam upaya mencegah konten semacam itu menyebar luas di berbagai negara.

MEMBACA  Dapatkah Teknologi Palantir Membantu Anda Menjadi Miliuner?

Infrastruktur global yang memeriksa fakta dan disinformasi juga dapat membantu memberi tahu masyarakat umum tentang deepfakes, katanya. Sementara itu, Singapura telah merilis versi final kerangka tata kelola untuk AI generatifnya, yang meluaskan kerangka tata kelola AI yang ada, pertama kali diperkenalkan pada tahun 2019 dan terakhir diperbarui pada tahun 2020.

Model Kerangka Tata Kelola AI untuk GenAI menetapkan pendekatan “sistematis dan seimbang” yang dikatakan Singapura seimbang dalam menangani masalah GenAI dan mendorong inovasi. Ini mencakup sembilan dimensi, termasuk pelaporan insiden, provenans konten, keamanan, dan pengujian dan jaminan, dan memberikan saran tentang langkah-langkah awal yang harus diambil.

Pada tahap selanjutnya, AI Verify, kelompok di balik kerangka kerja, akan menambahkan panduan dan sumber daya yang lebih rinci di bawah sembilan dimensi tersebut. Untuk mendukung interoperabilitas, mereka juga akan memetakan kerangka kerja tata kelola ke panduan AI internasional, seperti Prinsip Hiroshima G7. Juga: Fitur AI Apple dan kecepatan pelatihan AI Nvidia menduduki puncak Indeks Inovasi

Tata kelola yang baik sama pentingnya dengan inovasi dalam mewujudkan visi Singapura tentang AI untuk kebaikan, dan dapat membantu memungkinkan inovasi berkelanjutan, kata Josephine Teo, Menteri Komunikasi dan Informasi Singapura dan Menteri yang Bertanggung Jawab atas Smart Nation dan Keamanan Siber, dalam pidatonya di summit.

“Kita perlu menyadari bahwa itu satu hal untuk menangani efek merugikan AI, tetapi hal lain untuk mencegahnya terjadi pada awalnya…melalui desain yang tepat dan langkah-langkah hulu,” kata Teo. Dia menambahkan bahwa langkah-langkah mitigasi risiko penting, dan peraturan baru yang “berdasarkan pada bukti” dapat menghasilkan tata kelola AI yang lebih bermakna dan berdampak.

Selain mendirikan tata kelola AI, Singapura juga berencana untuk meningkatkan kemampuan tata kelolanya, seperti membangun pusat teknologi canggih dalam keselamatan online yang fokus pada konten online yang dibuat AI yang berbahaya. Pengguna juga perlu memahami risiko tersebut. Teo mencatat bahwa dalam kepentingan publik bagi organisasi yang menggunakan AI untuk memahami kelebihan dan keterbatasannya.

Teo percaya bahwa bisnis kemudian harus membekali diri dengan pola pikir, kemampuan, dan alat yang tepat untuk melakukannya. Dia menambahkan bahwa kerangka kerja tata kelola AI model Singapura menawarkan panduan praktis tentang apa yang harus diimplementasikan sebagai langkah perlindungan. Ini juga menetapkan persyaratan dasar pada penerapan AI, terlepas dari ukuran atau sumber daya perusahaan.

MEMBACA  Suatu gugatan mengklaim Meta wajib untuk membiarkan Anda mengontrol feed Anda sendiri

Menurut Martinekaite, bagi Telenor, tata kelola AI juga berarti memantau penggunaan alat AI baru dan mengevaluasi kembali risiko potensialnya. Perusahaan telekomunikasi Norwegia saat ini sedang mencoba Microsoft Copilot, yang dibangun di atas teknologi OpenAI, terhadap prinsip AI etis milik Telenor sendiri.

Ditanya apakah pertarungan OpenAI baru-baru ini yang melibatkan Mode Suara-nya telah memengaruhi kepercayaannya dalam menggunakan teknologi, Martinekaite mengatakan perusahaan besar yang menjalankan infrastruktur kritis seperti Telenor memiliki kapasitas dan pemeriksaan yang diperlukan untuk memastikan bahwa mereka menggunakan alat AI terpercaya, termasuk platform pihak ketiga seperti OpenAI. Ini juga termasuk bekerja dengan mitra seperti penyedia cloud dan penyedia solusi kecil untuk memahami dan mempelajari alat yang mereka gunakan.

Telenor membuat tim tugas tahun lalu untuk mengawasi adopsi AI yang bertanggung jawab. Martinekaite menjelaskan bahwa ini melibatkan pembentukan prinsip yang harus diikuti karyawannya, menciptakan buku aturan dan alat untuk memandu penggunaan AI-nya, dan menetapkan standar yang harus diikuti mitra-mitra, termasuk Microsoft.

Ini dimaksudkan untuk memastikan teknologi yang digunakan perusahaan itu sah dan aman, tambahnya. Telenor juga memiliki tim internal yang meninjau struktur manajemen risiko dan tata kelola untuk mempertimbangkan penggunaan GenAI-nya. Perusahaan akan menilai alat dan obat yang diperlukan untuk memastikan bahwa mereka memiliki struktur tata kelola yang tepat untuk mengelola penggunaan AI-nya di area berisiko tinggi, kata Martinekaite. Juga: Kelemahan keamanan awan bisnis ‘mengkhawatirkan’ karena ancaman AI semakin cepat

Saat organisasi menggunakan data mereka sendiri untuk melatih dan menyempurnakan model bahasa besar dan model AI yang lebih kecil, Martinekaite berpikir bahwa bisnis dan pengembang AI akan semakin membahas bagaimana data ini digunakan dan dikelola. Dia juga berpikir bahwa kebutuhan untuk mematuhi undang-undang baru, seperti EU AI Act, akan semakin mendorong pembicaraan semacam ini, karena perusahaan bekerja untuk memastikan mereka memenuhi persyaratan tambahan untuk penerapan AI berisiko tinggi. Misalnya, mereka perlu tahu bagaimana data pelatihan AI mereka dikurasi dan dilacak.

Ada banyak pengawasan dan kekhawatiran dari organisasi, yang akan ingin memeriksa dengan cermat perjanjian kontrak mereka dengan pengembang AI.