iStock / Getty Images Plus / Getty Images
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
*
Poin penting ZDNET:**
- Tanggung jawab dan keamanan AI menjadi isu utama di tahun 2026.
- Pengamanan terbaik adalah membangun AI dalam lingkungan sandbox.
- Pertahankan pengembangan AI yang sederhana dan terbuka.
*
Penulis buku The Lincoln Lawyer, Michael Connelly, kini mengalihkan perhatiannya pada isu di balik perkembangan kecerdasan buatan korporat yang tak terkendali. Karya fiksi terbarunya, The Proving Ground*, berkisah tentang seorang pengacara yang mengajukan gugatan perdata terhadap perusahaan AI "yang chatbot*-nya memberi tahu seorang remaja berusia enam belas tahun bahwa tidak apa-apa baginya untuk membunuh mantan kekasihnya atas ketidaksetiaannya."Buku ini menggambarkan kasus yang "mengeksplorasi bisnis AI yang sebagian besar tidak teregulasi dan meledak, serta kurangnya rel pengaman dalam pelatihan." Meski ini adalah karya fiksi dan kasusnya ekstrem, ini menjadi pengingat penting bahwa AI dapat keluar dari rel etika atau logika dalam banyak cara – baik melalui bias, saran buruk, atau penyesatan – dengan segala dampaknya. Di sisi lain, setidaknya satu suara berpengaruh di bidang AI menyarankan agar tidak berlebihan dalam upaya regulasi yang justru dapat memperlambat inovasi.
Keseimbangan Diperlukan
Seperti dilaporkan pada November lalu, setidaknya enam dari sepuluh perusahaan (61%) dalam survei PwC menyatakan bahwa AI yang bertanggung jawab telah terintegrasi aktif dalam operasi inti dan pengambilan keputusan mereka. Diperlukan keseimbangan antara tata kelola dan kecepatan, dan inilah tantangan bagi para profesional dan organisasinya di tahun mendatang.
Andrew Ng, pendiri DeepLearning.AI dan profesor di Universitas Stanford, menyatakan bahwa menguji semua aplikasi AI melalui pendekatan sandbox adalah cara paling efektif untuk menjaga keseimbangan antara kecepatan dan tanggung jawab.
"Banyak tim paling bertanggung jawab justru bergerak sangat cepat," katanya dalam sebuah keynote industri dan panel diskusi tindak lanjut. "Kami menguji perangkat lunak di lingkungan sandbox yang aman untuk mengetahui apa yang salah sebelum kemudian meluncurkannya ke dunia yang lebih luas."
Namun, ia menambahkan bahwa dorongan terkini menuju AI yang bertanggung jawab dan teratur – baik oleh pemerintah maupun korporasi sendiri – mungkin terlalu membebani. "Banyak bisnis menerapkan mekanisme perlindungan. Sebelum meluncurkan sesuatu, Anda butuh persetujuan hukum, pemasaran, tinjauan merek, privasi, dan kepatuhan GDPR. Seorang insinyur perlu mendapatkan tanda tangan lima wakil presiden sebelum melakukan apa pun. Semua jadi mandek."
Praktik terbaiknya adalah "bergerak cepat dengan secara proaktif menciptakan sandbox," lanjutnya. Dalam skenario ini, "tetapkan seperangkat aturan seperti ‘tidak mengirimkan produk eksternal dengan merek perusahaan’, ‘tidak ada informasi sensitif yang dapat bocor’, apa pun itu. AI hanya diuji pada karyawan perusahaan sendiri dengan NDA, dengan anggaran token AI hanya $100.000. Dengan menciptakan sandbox yang dijamin aman, ini dapat memberi banyak ruang bagi tim produk dan teknik untuk berlari cepat dan mencoba hal-hal secara internal." Setelah sebuah aplikasi AI dinilai aman dan bertanggung jawab, "baru investasikan pada skalabilitas, keamanan, dan keandalan untuk membawanya ke skala penuh," simpul Ng.
Jaga agar Tetap Sederhana
Di sisi tata kelola, pendekatan keep-it-simple dapat membantu menjaga AI tetap jelas dan terbuka.
"Karena setiap tim, termasuk yang non-teknis, kini menggunakan AI untuk bekerja, penting bagi kami untuk menetapkan aturan yang lugas dan sederhana," kata Michael Krach, Chief Innovation Officer di JobLeads. "Jelaskan di mana AI diperbolehkan, di mana tidak, data perusahaan apa yang dapat digunakannya, dan siapa yang perlu meninjau keputusan berdampak tinggi."
"Penting agar orang percaya bahwa sistem AI adil, transparan, dan dapat dipertanggungjawabkan," ujar Justin Salamon, mitra di Radiant Product Development. "Kepercayaan dimulai dengan kejelasan: terbuka tentang bagaimana AI digunakan, dari mana data berasal, dan bagaimana keputusan dibuat. Kepercayaan itu tumbuh ketika para pemimpin menerapkan pengambilan keputusan human-in-the-loop yang seimbang, desain etis, dan pengujian ketat untuk bias dan akurasi."
Kepercayaan semacam itu bersumber dari keeksplisitan dengan karyawan tentang maksud perusahaan dengan AI. "Jelas tentang kepemilikan," saran Krach. "Setiap fitur AI harus memiliki seseorang yang bertanggung jawab atas potensi kegagalan atau keberhasilannya. Uji dan ulangi, dan setelah Anda merasa percaya diri, terbitkan piagam AI berbahasa sederhana agar karyawan dan pelanggan tahu bagaimana AI digunakan dan mempercayai Anda dalam hal ini."
Prinsip-Prinsep Kunci AI yang Bertanggung Jawab
Apa saja penanda pendekatan AI yang bertanggung jawab yang harus diperhatikan oleh eksekutif dan profesional di tahun mendatang?
Delapan prinsip kunci AI yang bertanggung jawab baru-baru ini diposting oleh Dr. Khulood Almani, pendiri dan CEO HKB Tech:
- Anti-bias: Hilangkan diskriminasi.
- Transparansi dan kemampuan dijelaskan: Buat keputusan AI menjadi jelas, dapat dilacak, dan dipahami.
- Ketangguhan dan keamanan: Hindari bahaya, kegagalan, dan tindakan tak terduga.
- Akuntabilitas: Tetapkan tanggung jawab jelas untuk keputusan dan perilaku AI.
- Privasi dan perlindungan data: Amankan data pribadi.
- Dampak sosial: Pertimbangkan efek jangka panjang pada komunitas dan ekonomi.
- Desain berpusat pada manusia: Prioritaskan nilai-nilai manusia dalam setiap interaksi.
- Kolaborasi dan keterlibatan multistakeholder: Libatkan regulator, pengembang, dan publik.