Selamat pagi. Di perusahaan Fortune 500, tata kelola AI sudah menjadi prioritas utama untuk dewan direksi, karena banyak yang masih berusaha mengunakan AI dalam skala besar.
Sedgwick, sebuah mitra administrasi klaim dan risiko global, menerbitkan laporan perkiraan 2026 yang mengidentifikasi tren AI utama di berbagai sektor. Hasilnya menunjukkan bahwa 70% eksekutif Fortune 500 yang disurvei mengatakan perusahaan mereka punya komite risiko AI, 67% melaporkan kemajuan dalam infrastruktur AI, dan 41% punya tim tata kelola AI khusus. Tapi, hanya 14% yang bilang mereka sepenuhnya siap untuk penerapan AI. Ini menunjukkan kesenjangan antara struktur tata kelola formal dan kesiapan AI di dunia nyata.
Menurut laporan itu, eksekutif sudah cepat bertindak untuk membuat pengawasan formal. Tapi, fondasi yang dibutuhkan untuk menjalankan kerangka kerja itu—seperti proses, kontrol, alat, dan keterampilan yang diterapkan dalam pekerjaan sehari-hari—belum bisa mengikuti. Temuan ini berdasarkan survei terhadap 300 pemimpin senior di perusahaan Fortune 500.
Sedgwick menemukan bahwa tantangan penerapan utama adalah perubahan AI yang sangat cepat, diikuti kesulitan dalam menjalankan tata kelola dan mengelola privasi data. Ketidakpastian regulasi dan manajemen perubahan juga jadi hambatan besar. Hambatan ini kebanyakan bersifat organisasi dan proses, bukan teknis semata. Artinya, perusahaan hanya akan berhasil kalau menyelaraskan orang, kebijakan, dan teknologi secara bersamaan.
‘AI sudah menjadi mandat tingkat dewan’
Tema-tema itu jadi pusat perhatian di acara Fortune Brainstorm AI di San Francisco pekan lalu. Navrina Singh, pendiri dan CEO Credo AI, menjelaskan tiga kesenjangan terbesar yang dia lihat dari klien.
Pertama adalah visibilitas. Banyak organisasi masih tidak punya pandangan lengkap tentang di mana AI digunakan di bisnis mereka. "AI bayangan" dan alat yang tidak disetujui menyebar, sementara proyek yang disetujui tidak selalu didata dalam inventaris pusat. Tanpa peta sistem AI ini, badan tata kelola mencoba mengelola risiko yang tidak sepenuhnya terlihat.
Kesenjangan kedua adalah konseptual. "Ada mitos bahwa tata kelola itu sama dengan regulasi. Sayangnya, tidak sama," kata Singh. Tata kelola, menurutnya, jauh lebih luas: mencakup pemahaman dan pengurangan risiko, juga membuktikan kualitas produk, keandalan, dan keselarasan dengan nilai organisasi. Memperlakukan tata kelola sekadar sebagai kotak centang kepatuhan meninggalkan celah besar dalam perilaku AI di produksi.
Yang terakhir adalah literasi AI. "Kamu tidak bisa mengatur sesuatu yang tidak kamu gunakan atau pahami," ujar Singh. Jika hanya tim AI kecil yang paham teknologi ini sementara bagian lain organisasi membeli atau menggunakan alat bertenaga AI, kerangka tata kelola tidak akan diterjemahkan jadi keputusan yang bertanggung jawab di lapangan.
Singh juga menyoroti evolusi lanskap AI—dari model prediktif ke AI generatif, dan sekarang ke sistem agen yang bisa bertindak mandiri di alur kerja. "AI sudah menjadi mandat tingkat dewan," katanya. "Jika perusahaan tidak menggunakan AI, kamu akan menjadi cukup tidak relevan dalam 18 hingga 24 bulan ke depan."
Tata kelola yang baik, kata Singh, sangat kontekstual. Organisasi perlu mengaitkan tata kelola dengan hal yang paling mereka pedulikan. Dia memberi contoh salah satu kliennya, PepsiCo, yang sangat peduli pada reputasi dan banyak berinvestasi di AI yang bertanggung jawab. Bagi perusahaan itu, sistem AI apa pun yang berinteraksi dengan pelanggan—baik di layanan pelanggan atau melalui chatbot—harus andal, adil, dan mencerminkan nilai mereknya.
Untuk organisasi lain, tata kelola yang baik mungkin berarti memprioritaskan kemampuan audit, pengurangan bias, atau ketahanan. Benang merahnya, kata Singh, adalah melangkah lebih jauh dari struktur di atas kertas ke praktik operasional yang membuat AI aman, terpercaya, dan sesuai tujuan.
Sheryl Estrada