Meskipun alat rekrutmen AI beruaha untuk mempermudah proses perekrutan untuk banyak pelamar, teknologi yang seharusnya memberi kesempatan lebih besar malah memperkuat diskriminasi yang sudah terjadi selama puluhan tahun.
Alat rekrutmen AI sekarang sangat umum, dengan 492 perusahaan Fortune 500 menggunakannya di tahun 2024, menurut platform lamaran kerja Jobscan. Alat ini bisa membantu perusahaan memilih kandidat dan cari pengalaman yang relevan, tapi ahli SDM dan hukum memperingatkan kalau pelatihan dan penerapan yang salah bisa memperburuk bias.
Penelitian dari Universitas Washington menemukan bukti diskriminasi AI dalam rekrutmen. Dalam studi tahun lalu, AI lebih memilih nama yang terdengar “kulit putih” di 85,1% kasus dan nama perempuan hanya 11,1% kasus. Di beberapa situasi, pria kulit hitam dirugikan dibandingkan pria kulit putih sampai 100% kasus.
“Kita melatih model AI dengan data yang bias, terus menerus,” kata Kyra Wilson, penulis utama studi tersebut. “Kita belum tahu seberapa buruk ini bisa terjadi sampai model ini berhenti bekerja sama sekali.”
Beberapa pekerja mengklaim mengalami diskriminasi ini di dunia nyata. Bulan lalu, lima orang di atas 40 tahun menggugat Workday, perusahaan software manajemen kerja, karena alat rekrutmennya diskriminatif. Salah satu penggugat, Derek Mobley, bilang algoritma Workday menolaknya dari lebih dari 100 pekerjaan karena ras, usia, dan disabilitasnya.
Workday membantah klaim diskriminasi dan mengatakan gugatan itu “tidak berdasar.” Mereka juga baru dapat sertifikasi untuk AI yang “bertanggung jawab dan transparan.”
AI rekrutmen bukan satu-satunya masalah. Karyawan Amazon dengan disabilitas mengirim surat ke CEO Andy Jassy, menuduh perusahaan melanggar Undang-Undang Disabilitas Amerika. Amazon menggunakan proses AI yang tidak sesuai standar untuk keputusan akomodasi, menurut The Guardian. Amazon menyangkal dan bilang AI mereka tidak mengambil keputusan akhir.
Bagaimana AI bisa diskriminatif?
AI hanya secerdas data yang dimasukkan. Alat rekrutmen AI biasanya menyeleksi CV atau jawaban wawancara, kata Elaine Pulakos dari PDRI. Jika data yang dipakai bias (misalnya lebih suka laki-laki atau lulusan Ivy League), AI akan melanjutkan pola itu dan hasilnya bisa aneh.
“Kalau data latihannya tidak diverifikasi dan AI mulai berperilaku aneh, hasilnya pasti aneh juga,” kata Pulakos. “Itu sifat dasarnya.”
Bias AI berasal dari bias manusia. Diskriminasi dalam rekrutmen masih terjadi, seperti penelitian tahun 2023 yang menemukan perusahaan lebih sering memanggil pelamar kulit putih daripada kulit hitam atau Latin dengan CV sama.
AI bisa memperburuk masalah ini, kata Victor Schwartz dari Bold. “Lebih mudah membuat sistem AI yang adil daripada melatih 1.000 HRD. Tapi juga lebih mudah membuat AI yang diskriminatif.”
“Kamu menghilangkan variasi alami yang ada pada banyak orang,” tambahnya. “Tapi ada peluang di sini.”
**”Ada juga resiko.”**
### **Bagaimana ahli HR dan hukum melawan bias AI dalam perekrutan**
Meskipun karyawan dilindungi dari diskriminasi di tempat kerja oleh *Equal Employment Opportunity Commission* dan *Title VII of the Civil Rights Act of 1964*, “sebenarnya belum ada peraturan resmi tentang diskriminasi dalam penggunaan AI,” kata profesor hukum Kim.
Hukum yang ada melarang diskriminasi sengaja maupun *disparate impact*—diskriminasi yang terjadi akibat kebijakan netral tapi berdampak tidak adil, meski tanpa niat buruk.
“Kalau perusahaan pakai alat AI tanpa maksud diskriminasi, tapi ternyata pelamar yang tersingkir kebanyakan berusia di atas 40 tahun, itu termasuk *disparate impact*,” jelas Kim.
Walau teori *disparate impact* sudah mapan, Presiden Donald Trump menunjukkan penolakannya dengan mencoba menghapusnya lewat *executive order* pada April.
“Artinya, lembaga seperti EEOC tidak akan menangani kasus *disparate impact* atau mempelajari dampak teknologi ini. Mereka mundur dari upaya memahami dan memberi edukasi ke perusahaan,” tambah Kim.
Gedung Putih belum merespons permintaan komentar dari *Fortune*.
Tanpa banyak tindakan di tingkat federal, politisi lokal mencoba atasi potensi bias AI. Misalnya, New York City melarang perusahaan pakai *automated employment decision tools* kecuali sudah lolos audit bias dalam setahun.
Melanie Ronen, pengacara ketenagakerjaan, bilang beberapa undang-undang lokal fokus pada transparansi penggunaan AI dalam rekrutmen, termasuk opsi bagi pelamar untuk menolak AI dalam kondisi tertentu.
Perusahaan seperti PDRI dan Bold mengaku berusaha kurangi bias dalam teknologi mereka. CEO PDRI, Pulakos, menyarankan agar alat AI dinilai oleh manusia sebelum dipakai.
Schwartz dari Bold menyebut pengawasan, audit, dan transparansi penting agar AI adil. Tapi, AI juga bisa bantu diversifikasi tenaga kerja jika digunakan benar. Misalnya, wanita cenderung lebih jarang melamar kerja dibanding pria—AI bisa mempermudah proses lamaran, mengurangi hambatan bagi mereka yang ragu.
“Dengan menghilangkan hambatan lewat alat *auto-apply*, kami bisa sedikit meratakan lapangan,” kata Schwartz.