Kecerdasan Buatan (AI) Mungkin Tidak Mencuri Pekerjaan Anda, Tetapi Dapat Mencegah Anda Mendapatkan Pekerjaan

Jika Anda khawatir bahwa algoritma seleksi kandidat dapat menjadi penghalang antara Anda dan pekerjaan impian Anda, membaca buku The Algorithm karya Hilke Schellmann tidak akan menenangkan pikiran Anda. Sebagai seorang wartawan investigasi dan profesor jurnalisme di NYU, Schellmann membongkar rahasia bagaimana departemen SDM menggunakan perangkat lunak otomasi yang tidak hanya menyebarkan bias, tetapi juga gagal dalam melakukan apa yang mereka klaim lakukan: mencari kandidat terbaik untuk pekerjaan.

Schellmann berpura-pura menjadi pencari kerja calon untuk menguji beberapa perangkat lunak ini, mulai dari pemindai resume dan tes berbasis permainan video hingga penilaian kepribadian yang menganalisis ekspresi wajah, intonasi suara, dan perilaku media sosial. Salah satu alat menilainya sebagai kandidat yang cocok untuk pekerjaan meskipun dia berbicara omong kosong dalam bahasa Jerman. Algoritma penilaian kepribadian memberinya nilai tinggi untuk “kestabilan” berdasarkan penggunaan Twitter-nya dan nilai rendah berdasarkan profil LinkedIn-nya.

Hal ini cukup membuat Anda ingin menghapus akun LinkedIn Anda dan beralih menjadi petani, tetapi Schellmann juga memberikan wawasan yang membangkitkan semangat. Dalam sebuah wawancara yang telah disunting untuk kejelasan dan panjangnya, dia menyarankan bagaimana masyarakat dapat mengendalikan teknologi SDM yang bias dan menawarkan tips praktis bagi pencari kerja tentang cara mengalahkan algoritma.

Caitlin Harrington: Anda telah melaporkan penggunaan kecerdasan buatan dalam perekrutan untuk The Wall Street Journal, MIT Technology Review, dan The Guardian selama beberapa tahun terakhir. Pada titik mana Anda berpikir, saya punya sebuah buku di sini?

Hilke Schellmann: Salah satunya adalah ketika saya menghadiri salah satu konferensi HR teknologi pertama pada tahun 2018 dan bertemu dengan alat kecerdasan buatan yang memasuki pasar. Ada sekitar 10.000 orang, ratusan vendor, banyak pembeli, dan perusahaan-perusahaan besar. Saya menyadari bahwa ini adalah pasar yang sangat besar, dan teknologi ini sedang mengambil alih SDM.

MEMBACA  Presiden Liberia yang baru tidak berhasil mengakhiri pidato pelantikan

Perusahaan perangkat lunak sering mempresentasikan produk mereka sebagai cara untuk menghilangkan bias manusia dalam perekrutan. Tetapi tentu saja kecerdasan buatan dapat menyerap dan mereproduksi bias dari data pelatihan yang diambil. Anda menemukan salah satu pemindai resume yang menyesuaikan skor kandidat ketika mendeteksi frasa “African American” pada resume mereka.

Schellmann: Tentu saja perusahaan akan mengatakan bahwa alat mereka tidak memiliki bias, tapi bagaimana alat tersebut diuji? Apakah ada yang menyelidiki ini yang tidak bekerja di perusahaan? Salah satu perusahaan mengungkapkan bahwa kecerdasan buatan mereka dididik dengan data dari mahasiswa perguruan tinggi usia 18 hingga 25 tahun. Mungkin mereka hanya menemukan sesuatu yang sangat spesifik untuk kelompok usia 18 hingga 25 tahun yang tidak berlaku untuk pekerja lain yang menggunakan alat tersebut.

Ada batas kerusakan yang dapat dilakukan oleh seorang manajer perekrutan manusia, dan tentu saja kita harus berusaha mencegah itu. Tetapi jika algoritma yang digunakan untuk menilai ratusan ribu pekerja memiliki cacat, maka dapat merugikan jauh lebih banyak orang daripada satu manusia.

Tentu saja, vendor tidak ingin orang-orang menyelidiki kotak-kotak hitam tersebut. Tapi saya pikir majikan juga enggan melihatnya karena mereka dapat mengklaim tidak tahu. Jika mereka menemukan masalah, mungkin ada 500.000 orang yang telah melamar pekerjaan dan dapat mengajukan tuntutan. Itulah mengapa kita perlu mewajibkan lebih banyak transparansi dan pengujian.