Megha Mohan
Koresponden Bidang Gender dan Identitas, BBC World Service
Grit
Sebuah pembunuhan yang mengerikan dalam keluarganya sendiri menginspirasi Leonora Tima dari Afrika Selatan untuk menciptakan sebuah platform digital tempat orang-orang, terutama perempuan, dapat berbicara tentang dan melacak kekerasan.
Kerabat Leonora baru berusia 19 tahun dan sedang hamil sembilan bulan ketika dia dibunuh, tubuhnya dibuang di pinggir jalan raya dekat Cape Town pada tahun 2020.
“Saya bekerja di sektor pembangunan, jadi saya pernah melihat kekerasan,” kata Leonora. “Tetapi yang menonjol bagi saya adalah kematian kekerasan anggota keluarga saya dianggap sangat normal dalam masyarakat Afrika Selatan.”
“Kematiannya tidak diterbitkan oleh outlet berita mana pun karena volume kasus seperti ini di negara kita sangat besar sehingga tidak memenuhi syarat sebagai berita.”
Sang pembunuh tidak pernah tertangkap, dan apa yang dianggap Leonora sebagai penerimaan diam-diam terhadap kematian kekerasan seorang perempuan menjadi katalis untuk aplikasinya, Gender Rights in Tech (Grit), yang menampilkan chatbot bernama Zuzi.
Ini adalah salah satu alat AI gratis pertama yang dibuat oleh para kreator Afrika untuk menangani kekerasan berbasis gender.
“Ini adalah solusi Afrika yang dirancang bersama dengan komunitas-komunitas Afrika,” ujar Leonora.
Tujuannya adalah untuk menawarkan dukungan dan membantu mengumpulkan bukti yang nantinya dapat digunakan dalam kasus hukum terhadap pelaku kekerasan.
Inisiatif ini semakin menarik minat aktivis hak-hak perempuan internasional, meskipun beberapa mengingatkan bahwa chatbot tidak boleh digunakan untuk menggantikan dukungan manusia, dengan menekankan bahwa penyintas membutuhkan empati, pengertian, dan koneksi emosional yang hanya dapat diberikan oleh profesional terlatih.
Leonora dan tim kecilnya mengunjungi komunitas-komunitas di township di sekitar rumahnya di Cape Town, berbicara dengan warga tentang pengalaman mereka mengalami kekerasan dan cara teknologi berperan dalam hidup mereka.
Mereka bertanya kepada lebih dari 800 orang tentang bagaimana mereka menggunakan ponsel dan media sosial untuk membicarakan kekerasan, dan apa yang menghalangi mereka untuk mencari pertolongan.
Leonora menemukan bahwa orang-orang ingin membicarakan kekerasan yang mereka alami, tetapi “mereka waspada terhadap jalur tradisional seperti polisi”.
“Beberapa perempuan akan memposting tentang hal itu di Facebook dan bahkan menandai pelaku kekerasan mereka, hanya untuk kemudian dilayani dengan surat gugatan fitnah,” katanya.
Dia merasa bahwa sistem yang ada telah gagal membantu korban dua kali, pertama karena gagal mencegah kekerasan itu sendiri, dan kedua ketika korban mencoba untuk bersuara.
Dengan dukungan finansial dan teknis dari Mozilla, Gates Foundation, dan Patrick McGovern Foundation, Leonora dan timnya mulai mengembangkan Grit, sebuah aplikasi seluler yang dapat membantu orang mencatat, melaporkan, dan mendapatkan respons terhadap kekerasan saat itu terjadi.
Aplikasi ini gratis digunakan, meskipun membutuhkan paket data seluler untuk mengunduhnya. Tim Leonora menyatakan bahwa aplikasi ini memiliki 13.000 pengguna dan menerima sekitar 10.000 permintaan bantuan pada bulan September.
Pada intinya, Grit dibangun di sekitar tiga fitur utama.
Pada layar beranda terdapat tombol bantuan besar berbentuk lingkaran. Ketika ditekan, tombol ini secara otomatis mulai merekam 20 detik audio, menangkap apa yang terjadi di sekitar pengguna. Secara bersamaan, tombol ini memicu peringatan ke pusat panggilan respons cepat yang privat—perusahaan respons profesional umum di Afrika Selatan—di mana seorang operator terlatih akan menelepon pengguna.
Jika penelepon membutuhkan bantuan segera, tim respons baik mengirimkan seseorang ke lokasi kejadian sendiri atau menghubungi organisasi di dekat korban yang dapat memberikan pertolongan.
Aplikasi ini dibangun dengan kebutuhan para penyintas kekerasan sebagai pusatnya, kata Leonora: “Kami perlu mendapatkan kepercayaan orang. Ini adalah komunitas-komunitas yang sering diabaikan. Kami meminta banyak dari orang-orang ketika menyangkut berbagi data.”
Grit
Zuzi telah diciptakan dengan bantuan perempuan-perempuan dalam komunitas di sekitar Cape Town
Ketika ditanya apakah fitur bantuan pernah disalahgunakan, dia mengakui ada beberapa kali tombol ditekan karena rasa penasaran—orang menguji apakah ini benar-benar berfungsi—tetapi tidak ada yang dia sebut sebagai penyalahgunaan sistem.
“Orang-orang berhati-hati. Mereka menguji kami sama seperti kami menguji teknologinya,” ujarnya.
Elemen kedua dari Grit adalah “brankas”, yang menurut Leonora adalah ruang digital aman tempat pengguna dapat menyimpan bukti-bukti kekerasan, yang diberi tanggal dan dienkripsi, untuk kemungkinan digunakan nanti dalam proses hukum.
Foto, tangkapan layar, dan rekaman suara semuanya dapat diunggah dan disimpan secara privat, melindungi bukti penting dari penghapusan atau pemalsuan.
“Terkadang perempuan mengambil foto luka-luka atau menyimpan pesan ancaman, tetapi itu bisa hilang atau terhapus,” kata Leonora. “Brankas ini berarti bukti tidak hanya berada di ponsel yang bisa diambil atau dihancurkan.”
Bulan ini, Grit akan berkembang lagi dengan diluncurkannya fitur ketiga—Zuzi, sebuah chatbot bertenaga AI yang dirancang untuk mendengarkan, menasihati, dan mengarahkan pengguna ke dukungan komunitas lokal.
“Kami bertanya kepada orang-orang: ‘Haruskah dia seorang perempuan? Haruskah dia seorang laki-laki? Haruskah dia robot? Haruskah suaranya seperti pengacara, pekerja sosial, jurnalis, atau figur otoritas lainnya?'” jelas Leonora.
Orang-orang memberitahu mereka bahwa mereka ingin Zuzi menjadi “figur seorang bibi”—seseorang yang hangat dan dapat dipercaya, yang dapat mereka curhati tanpa takut dihakimi.
Grit
Leonora (kanan) dan koleganya di Grit mengatakan bahwa pekerjaan mereka memberikan perempuan rasa kendali atas kekerasan
Meskipun dibangun terutama untuk perempuan yang mengalami kekerasan, selama fase pengujian, Zuzi juga digunakan oleh laki-laki yang mencari pertolongan.
“Beberapa percakapan berasal dari pelaku, laki-laki yang meminta Zuzi untuk mengajarkan mereka cara mendapatkan bantuan untuk masalah amarah mereka, yang sering mereka tujukan kepada pasangan mereka,” jelas Leonora. “Ada juga laki-laki yang merupakan korban kekerasan dan telah menggunakan Zuzi untuk berbicara lebih terbuka tentang pengalaman mereka.”
“Orang-orang suka berbicara dengan AI karena mereka tidak merasa dihakimi olehnya,” tambahnya. “Itu bukan manusia.”
UN Women melaporkan bahwa Afrika Selatan mengalami beberapa tingkat kekerasan berbasis gender (KBG) tertinggi di dunia, dengan tingkat femisida yang lima kali lebih tinggi dari rata-rata global. Menurut polisi Afrika Selatan, antara tahun 2015 dan 2020, rata-rata tujuh perempuan dibunuh setiap harinya.
Banyak pihak, termasuk Lisa Vetten, seorang spesialis kekerasan berbasis gender di Afrika Selatan, setuju bahwa tidak dapat dihindari bahwa teknologi akan memainkan peran dalam mengatasinya.
Namun dia juga memperingatkan untuk berhati-hati seputar penggunaan AI dalam perawatan yang berpusat pada trauma.
“Saya menyebutnya Model Bahasa Besar, bukan kecerdasan buatan karena mereka terlibat dalam analisis dan prediksi linguistik—tidak lebih dari itu,” katanya.
Dia dapat memahami bagaimana sistem AI mungkin dapat membantu, tetapi mengetahui contoh-contoh di mana chatbot AI lain telah memberikan nasihat yang salah kepada perempuan.
“Saya khawatir ketika mereka memberikan jawaban yang sangat percaya diri kepada perempuan atas masalah hukum mereka,” ujarnya. “Chatbot dapat memberikan informasi yang membantu tetapi mereka tidak mampu menangani kesulitan kompleks dan multi-aspek. Yang paling penting, mereka bukan pengganti untuk konseling manusia. Orang-orang yang telah dirugikan perlu dibantu untuk mempercayai dan merasa aman dengan sesama manusia.”
@judith.Litvine/MEAE
Lyric Thompson menginginkan lebih banyak perempuan terlibat dalam pengembangan AI
Pendekatan Grit telah menarik perhatian internasional.
Pada bulan Oktober, Leonora dan timnya mempresentasikan aplikasi mereka di Feminist Foreign Policy Conference yang diselenggarakan oleh pemerintah Prancis di Paris, di mana para pemimpin global bertemu untuk membahas bagaimana teknologi dan kebijakan dapat digunakan untuk membangun dunia yang lebih setara gender. Di konferensi tersebut, 31 negara menandatangani janji untuk menjadikan penanganan kekerasan berbasis gender sebagai prioritas kebijakan utama.
Percakapan sedang ramai mengenai penggunaan AI, kata Lyric Thompson, pendiri dan kepala Feminist Foreign Policy Collaborative, “tetapi begitu Anda mencoba memasukkan gender ke dalam percakapan, untuk menyoroti bahaya bias rasis, seksis, dan xenofobik yang tertanam, mata menjadi kosong dan percakapan beralih—kemungkinan ke koridor belakang di mana tidak ada perempuan yang menyebalkan untuk mengangkatnya.”
Heather Hurlburt—seorang rekan associate di Chatham House, yang mengkhususkan diri dalam AI dan penggunaannya dalam teknologi—setuju bahwa AI “memiliki potensi besar baik untuk membantu mengidentifikasi dan memperbaiki diskriminasi gender dan kekerasan berbasis gender, atau untuk mengukuhkan misogini dan ketidaksetaraan”, tetapi menambahkan arah mana yang kita tempuh “sangat tergantung pada kita”.
Leonora tegas bahwa kesuksesan AI dalam menangani kekerasan berbasis gender tidak hanya bergantung pada rekayasa, tetapi juga pada siapa yang mendesain teknologi tersebut sejak awal.
Laporan World Economic Forum tahun 2018 menemukan bahwa hanya 22% profesional AI di tingkat global adalah perempuan, sebuah statistik yang masih sering dikutip.
“AI sebagaimana yang kita kenal sekarang telah dibangun dengan data historis yang memusatkan suara laki-laki, dan khususnya laki-laki kulit putih,” kata Leonora.
“Jawabannya bukan hanya tentang memiliki lebih banyak kreator perempuan. Kita juga membutuhkan kreator yang merupakan perempuan berkulit berwarna, lebih banyak dari belahan bumi selatan, dan lebih banyak dari latar belakang sosial ekonomi yang kurang istimewa.”
Hanya dengan begitu, simpul Leonora Tima, teknologi dapat mulai merepresentasikan realitas para penggunanya.
Anda mungkin juga tertarik dengan:
Getty Images/BBC