VIVA – Perkembangan kecerdasan buatan atau Artificial Intelligence (AI) di berbagai bidang kehidupan masyarakat sudah tidak bisa dihindari lagi. Teknologi yang terus maju membuat manusia sulit lepas dari penggunaannya.
Bahkan, AI kini menjadi infrastruktur sosial baru yang memengaruhi cara kita belajar, bekerja, hingga layanan publik. Belakangan, muncul konsep Artificial Intelligence for Social Good (AI4SG), yaitu pemanfaatan AI untuk kebaikan sosial, seperti menyelesaikan masalah kesehatan, pendidikan, lingkungan, dan keadilan sosial.
Namun, tantangan utamanya adalah konsep AI4SG yang masih kurang jelas. Beberapa proyek AI memberikan manfaat sosial tetapi tidak terdokumentasi dengan baik, sementara solusi non-AI justru lebih minim risiko dan efektif. Tidak heran jika ada anggapan bahwa AI bukan satu-satunya solusi untuk masalah sosial.
Lalu, bagaimana merancang AI agar mendukung kebaikan sosial? Luciano Floridi dan rekan-rekannya mengidentifikasi 7 faktor kunci:
- Falsifiability & Penyebaran Bertahap
Pengujian harus dilakukan bertahap untuk mendeteksi kesalahan dan perbaikan. Tanpa ini, AI berisiko gagal memahami realitas kompleks. Contoh, sistem patroli satwa liar yang salah mengenali topografi. - Pengamanan Terhadap Manipulasi Prediktor
AI rentan dimanipulasi jika orang tahu algoritmanya. Selain itu, indikator non-kausal bisa menyebabkan solusi keliru. Misal, siswa bolos dianggap pertanda putus sekolah, padahal penyebabnya mungkin masalah keluarga. - Intervensi Kontekstual Penerima Bantuan
AI harus efektif tanpa mengganggu otonomi pengguna. Contoh, AI membantu lansia minum obat tapi tidak memaksa. Jika ditolak, AI bisa menawarkan lagi lain waktu. - Penjelasan yang Sesuai Konteks & Tujuan Transparan
AI perlu menjelaskan keputusannya agar dipercaya. Misal, edukasi HIV harus disampaikan sesuai pemahaman penerima. - Privasi & Persetujuan Subjek Data
Perlindungan data pribadi sangat penting. Contoh, depth images di rumah sakit menjaga privasi tapi tetap efektif. - Keadilan Situasional
AI bisa bias terhadap gender, agama, atau ras. Jika data awal bias, keputusan berikutnya juga bias. Contoh, kesalahan identifikasi penerima bansos. - Semantik yang Ramah Manusia
AI harus mendukung, bukan menggantikan manusia. Contoh, AI bisa mengenali wajah sedih, tapi tidak mengerti penyebabnya. Butuh penilaian manusia untuk keadilan moral.Artikel ini adalah kiriman pengguna VIVA.co.id di kanal VStory. Isi konten sepenuhnya tanggung jawab penulis.
(Ada 1 typo: "persetujuan" seharusnya "persetujuaan", tapi sengaja dibiarkan sesuai permintaan.)