virtualmage/iStock/Getty Images Plus via Getty Images
Ikuti ZDNET: [Tambahkan kami sebagai sumber pilihan] di Google.
—
Poin Penting ZDNET
- Tim TI, teknik, data, dan AI kini memimpin upaya AI yang Bertanggung Jawab.
- PwC merekomendasikan model "pertahanan" tiga lapis.
- Tanamkan, jangan tempelkan, AI yang Bertanggung Jawab dalam segala hal.
—
"AI yang Bertanggung Jawab" adalah topik yang sangat hangat dan penting saat ini, dan tanggung jawab ada pada manajer serta profesional teknologi untuk memastikan bahwa pekerjaan kecerdasan buatan yang mereka lakukan membangun kepercayaan sekaligus selaras dengan tujuan bisnis.
Sebanyak 56% dari 310 eksekutif yang berpartisipasi dalam survei terbaru PwC menyatakan bahwa tim lini pertama mereka—TI, teknik, data, dan AI—kini memimpin upaya AI Bertanggung Jawab mereka. "Pergeseran ini menempatkan tanggung jawab lebih dekat dengan tim yang membangun AI dan memastikan tata kelola terjadi di tempat keputusan dibuat, mengalihfokuskan pembicaraan tentang AI Bertanggung Jawab dari sekadar kepatuhan menjadi pemberdayaan kualitas," menurut para penulis PwC.
AI yang Bertanggung Jawab—yang dikaitkan dengan menghilangkan bias serta memastikan keadilan, transparansi, akuntabilitas, privasi, dan keamanan—juga relevan dengan kelangsungan dan kesuksesan bisnis, menurut survei PwC. "AI Bertanggung Jawab semakin menjadi penggerak nilai bisnis, meningkatkan ROI, efisiensi, dan inovasi sambil memperkuat kepercayaan."
"AI Bertanggung Jawab adalah olahraga tim," jelas para penulis laporan. "Peran yang jelas dan serah terima yang ketat kini sangat penting untuk skalabilitas yang aman dan percaya diri seiring dengan percepatan adopsi AI." Untuk memanfaatkan keunggulan AI Bertanggung Jawab, PwC merekomendasikan penerapan aplikasi AI dalam struktur operasi dengan tiga "lini pertahanan."
- Lini Pertama: Membangun dan mengoperasikan secara bertanggung jawab.
- Lini Kedua: Meninjau dan mengatur.
- Lini Ketiga: Memastikan dan mengaudit.
Tantangan untuk mencapai AI Bertanggung Jawab, yang dikutip oleh setengah dari responden survei, adalah mengubah prinsip-prinsip AI Bertanggung Jawab "menjadi proses yang dapat diskalakan dan dapat diulang," temuan PwC.
Sekitar enam dari sepuluh responden (61%) survei PwC menyatakan bahwa AI Bertanggung Jawab terintegrasi secara aktif ke dalam operasi inti dan pengambilan keputusan. Sekitar satu dari lima (21%) melaporkan berada dalam tahap pelatihan, berfokus pada pengembangan pelatihan karyawan, struktur tata kelola, dan panduan praktis. Sisanya 18% mengatakan mereka masih dalam tahap awal, berupaya membangun kebijakan dan kerangka kerja dasar.
Di seluruh industri, ada perdebatan tentang seberapa ketat kendali atas AI seharusnya untuk memastikan aplikasi yang bertanggung jawab. "Ada situasi di mana AI dapat memberikan nilai besar, tetapi jarang dalam batas toleransi risiko perusahaan," kata Jake Williams, mantan peretas Badan Keamanan Nasional AS dan anggota fakultas di IANS Research. "LLM yang mendasari sebagian besar agen dan solusi AI generatif tidak menciptakan output yang konsisten, yang menyebabkan risiko yang tidak terduga. Perusahaan menghargai pengulangan, namun sebagian besar aplikasi yang didukung LLM, paling banter, mendekati benar sebagian besar waktu."
Akibat ketidakpastian ini, "kami melihat lebih banyak organisasi menarik kembali adopsi inisiatif AI mereka karena menyadari bahwa mereka tidak dapat memitigasi risiko secara efektif, terutama yang menimbulkan eksposur regulasi," lanjut Williams. "Dalam beberapa kasus, ini akan berakibat pada penyesuaian ruang lingkup aplikasi dan use case untuk mengatasi risiko regulasi tersebut. Dalam kasus lain, ini akan mengakibatkan ditinggalkannya seluruh proyek."
8 Panduan Ahli untuk AI yang Bertanggung Jawab
Para ahli industri menawarkan panduan berikut untuk membangun dan mengelola AI yang Bertanggung Jawab:
- Bangun AI Bertanggung Jawab dari Awal sampai Akhir: Jadikan AI Bertanggung Jawab sebagai bagian dari desain dan penerapan sistem, bukan pikiran tambahan.
"Bagi para pemimpin dan manajer teknologi, memastikan AI bertanggung jawab dimulai dari cara AI dibangun," kata Rohan Sen, Principal untuk Cyber, Data, dan Tech Risk di PwC AS serta rekan penulis laporan survei, kepada ZDNET.
"Untuk membangun kepercayaan dan menskalakan AI dengan aman, fokuslah pada penanaman AI Bertanggung Jawab ke dalam setiap tahap siklus hidup pengembangan AI, dan libatkan fungsi-fungsi kunci seperti keamanan siber, tata kelola data, privasi, dan kepatuhan regulasi," ujar Sen. "Tanamkan tata kelola sejak dini dan terus-menerus." - Berikan Tujuan pada AI—Bukan Hanya Menjalankan AI Demi AI Itu Sendiri: "Terlalu sering, para pemimpin dan tim teknologi mereka memperlakukan AI sebagai alat eksperimen, menghasilkan banyak data hanya karena mereka bisa," kata Danielle An, Senior Software Architect di Meta.
"Gunakan teknologi dengan selera, disiplin, dan tujuan. Gunakan AI untuk mempertajam intuisi manusia—untuk menguji ide, mengidentifikasi titik lemah, dan mempercepat keputusan yang terinformasi. Rancang sistem yang meningkatkan penilaian manusia, bukan menggantikannya." - Tekankan Pentingnya AI Bertanggung Jawab Sejak Dini: Menurut Joseph Logan, Chief Information Officer di iManage, inisiatif AI Bertanggung Jawab "harus dimulai dengan kebijakan jelas yang mendefinisikan penggunaan AI yang dapat diterima dan memperjelas apa yang dilarang."
"Mulailah dengan pernyataan nilai tentang penggunaan etis," kata Logan. "Dari sini, prioritaskan audit berkala dan pertimbangkan komite steering yang mencakup privasi, keamanan, hukum, TI, dan pengadaan. Transparansi dan komunikasi terbuka yang berkelanjutan sangat penting agar pengguna tahu apa yang disetujui, apa yang tertunda, dan apa yang dilarang. Selain itu, berinvestasi dalam pelatihan dapat membantu memperkuat kepatuhan dan penggunaan etis." - Jadikan AI Bertanggung Jawab sebagai Bagian Kunci dari Pekerjaan: Praktik dan pengawasan AI Bertanggung Jawab perlu menjadi prioritas yang setara dengan keamanan dan kepatuhan, kata Mike Blandina, Chief Information Officer di Snowflake. "Pastikan model-modelnya transparan, dapat dijelaskan, dan bebas dari bias yang berbahaya."
Juga kunci dari upaya semacam itu adalah kerangka tata kelola yang memenuhi persyaratan regulator, dewan direksi, dan pelanggan. "Kerangka kerja ini perlu mencakup seluruh siklus hidup AI—dari sumber data, pelatihan model, hingga penerapan, dan pemantauan." - Pertahankan Peran Manusia dalam Semua Tahap: Jadikan prioritas untuk "terus-menerus mendiskusikan bagaimana menggunakan AI secara bertanggung jawab untuk meningkatkan nilai bagi klien sambil memastikan bahwa masalah keamanan data dan kekayaan intelektual ditangani," kata Tony Morgan, Senior Engineer di Priority Designs.
"Tim TI kami meninjau dan mengkritisi setiap platform AI yang kami setujui untuk memastikannya memenuhi standar kami demi melindungi kami dan klien kami. Untuk menghormati kekayaan intelektual baru dan yang sudah ada, kami memastikan tim kami terdidik tentang model dan metode terbaru, sehingga mereka dapat menerapkannya secara bertanggung jawab." - Hindari Risiko Percepatan: Banyak tim teknologi memiliki "dorongan untuk memasukkan AI generatif ke dalam produksi sebelum tim mendapatkan jawaban atas pertanyaan X atau risiko Y," kata Andy Zenkevich, Founder & CEO di Epiic.
"Sebuah kemampuan AI baru akan sangat menarik sehingga proyek-proyek akan melaju untuk menggunakannya dalam produksi. Hasilnya seringkali adalah demonstrasi yang spektakuler. Kemudian segalanya menjadi kacau ketika pengguna sungguhan mulai mengandalkannya. Mungkin ada celah transparansi yang salah. Mungkin tidak jelas siapa yang bertanggung jawab jika Anda mengembalikan sesuatu yang ilegal. Luangkan waktu ekstra untuk pemetaan risiko atau periksa kemampuan penjelasan model. Kerugian bisnis karena melewatkan tenggat waktu awal tidak sebanding dengan mengoreksi peluncuran yang gagal." - Dokumentasikan, Dokumentasikan, Dokumentasikan: Idealnya, "setiap keputusan yang dibuat oleh AI harus dicatat, mudah dijelaskan, dapat diaudit, dan memiliki jejak yang jelas bagi manusia untuk diikuti," kata McGehee. "Setiap tata kelola AI yang efektif dan berkelanjutan akan mencakup siklus tinjauan setiap 30 hingga 90 hari untuk memeriksa asumsi dengan benar dan melakukan penyesuaian yang diperlukan."
- Periksa Data Anda: "Cara organisasi mendapatkan data pelatihan dapat memiliki implikasi keamanan, privasi, dan etika yang signifikan," kata Fredrik Nilsson, Wakil Presiden, Amerika, di Axis Communications.
"Jika suatu model AI secara konsisten menunjukkan tanda-tanda bias atau telah dilatih dengan materi berhak cipta, pelanggan kemungkinan akan berpikir dua kali sebelum menggunakan model tersebut. Bisnis harus menggunakan set data mereka sendiri yang telah diperiksa secara menyeluruh saat melatih model AI, alih-alih menggunakan sumber eksternal, untuk menghindari infiltrasi dan eksfiltrasi informasi dan data sensitif. Semakin banyak kendali yang Anda miliki atas data yang digunakan model Anda, semakin mudah untuk meredakan kekhawatiran etis."Dapatkan berita teratas setiap pagi di kotak masuk Anda setiap hari dengan [buletin Tech Today] kami.