Orang-orang menunjukkan bias berbasis gender yang sama ketika berinteraksi dengan kecerdasan buatan seperti yang mereka lakukan dengan manusia lain. Sebuah penelitian baru mengungkapkan bahwa pengguna lebih mungkin mengeksploitasi mitra AI yang diberi label “perempuan” dibandingkan mereka yang diidentifikasi sebagai “laki-laki”. Temuan ini menyoroti bagaimana diskriminasi sosial yang sudah mendarah daging melampaui interaksi manusia dan menimbulkan risiko bagi desain sistem AI di masa depan.
Dilema Tahanan Mengungkap Bias Manusia
Para peneliti di iScience menerbitkan temuan pada tanggal 2 November yang menunjukkan bahwa peserta dalam permainan “Dilema Tahanan” yang dimodifikasi secara konsisten mengeksploitasi agen AI yang diidentifikasi sebagai perempuan, non-biner, atau tidak memiliki jenis kelamin dengan tingkat 10% lebih tinggi daripada mereka yang mengeksploitasi AI yang diidentifikasi sebagai laki-laki. Dilema Tahanan adalah ujian standar dalam teori permainan di mana pemain harus memilih antara kerja sama dan kepentingan pribadi; eksploitasi terjadi ketika satu pemain membelot sementara pemain lain bekerja sama, sehingga memaksimalkan keuntungan pembelot dengan mengorbankan pemain lain.
Perilaku ini tidak terbatas pada interaksi dengan AI. Peserta juga menunjukkan preferensi untuk bekerja sama dengan AI perempuan, non-biner, dan netral gender, dan mengharapkan perilaku kooperatif serupa sebagai balasannya. Sebaliknya, mereka kurang percaya pada AI yang diidentifikasi laki-laki, dan mengantisipasi pembelotan. Peserta perempuan, khususnya, menunjukkan “homofili” yang kuat, dan lebih siap bekerja sama dengan agen “perempuan” lainnya.
Mengapa Ini Penting: Bangkitnya AI yang Antropomorfis
Implikasi penelitian ini sangat luas. Ketika AI semakin terantropomorfisasi—mengingat karakteristik mirip manusia seperti gender dan nama—untuk mendorong kepercayaan dan keterlibatan, bias yang ada dapat semakin besar. Ini bukan sekadar persoalan etis yang abstrak; dunia nyata dengan cepat mengintegrasikan AI ke dalam sistem penting : mobil tanpa pengemudi, penjadwalan kerja, dan bahkan diagnosis medis.
Para peneliti menemukan bahwa eksploitasi terjadi karena orang berasumsi orang lain akan membelot atau bekerja sama, dan bertindak sesuai dengan hal tersebut. Saat menghadapi AI yang bersifat gender, asumsi-asumsi ini berlaku dengan cara yang dapat diprediksi. Laki-laki lebih rentan untuk mengeksploitasi pasangannya sementara perempuan lebih sering bekerja sama, terlepas dari apakah pasangannya manusia atau AI.
Mengurangi Bias dalam Desain AI
Temuan penelitian ini menggarisbawahi kebutuhan penting bagi perancang AI untuk secara proaktif mengatasi bias berbasis gender. Menetapkan gender pada AI tanpa mempertimbangkan dinamika sosial yang mendasarinya dapat memperkuat pola-pola yang merugikan. Tujuannya bukan untuk menghilangkan gender sama sekali, namun untuk memahami bagaimana persepsi membentuk interaksi dan merancang sistem yang memitigasi hasil yang tidak adil.
“Dengan memahami pola mendasar dari bias dan persepsi pengguna, para desainer dapat berupaya menciptakan sistem AI yang efektif dan tepercaya yang mampu memenuhi kebutuhan penggunanya sekaligus mempromosikan dan melestarikan nilai-nilai sosial yang positif seperti keadilan dan keadilan.”
Mengabaikan bias-bias ini dapat melanggengkan diskriminasi yang sulit untuk dihilangkan. Ketika AI semakin terintegrasi ke dalam kehidupan sehari-hari, kesadaran akan dinamika ini sangat penting untuk memastikan keadilan dan mencegah penguatan norma-norma sosial yang merugikan.
