Las personas exhiben los mismos prejuicios de género cuando interactúan con inteligencia artificial que con otros humanos, y un nuevo estudio revela que los usuarios tienen significativamente más probabilidades de explotar socios de IA etiquetados como “femeninos” que aquellos identificados como “masculinos”. Este hallazgo resalta cómo la discriminación social arraigada se extiende más allá de las interacciones humanas y plantea riesgos para el diseño futuro de los sistemas de IA.
El dilema del prisionero revela prejuicios humanos
Investigadores de iScience publicaron hallazgos el 2 de noviembre que muestran que los participantes en un juego modificado del “Dilema del Prisionero” explotaron consistentemente agentes de IA identificados como femeninos, no binarios o sin género a un ritmo un 10% mayor que el que explotaron la IA identificada como masculina. El dilema del prisionero es una prueba estándar en teoría de juegos en la que los jugadores deben elegir entre cooperación e interés propio; La explotación ocurre cuando un jugador deserta mientras el otro coopera, maximizando las ganancias del desertor a expensas del otro.
Este comportamiento no se limita a las interacciones con la IA. Los participantes también demostraron una preferencia por cooperar con IA femenina, no binaria y neutral en cuanto al género, esperando a cambio un comportamiento cooperativo similar. Por el contrario, confiaban menos en la IA identificada como masculina, anticipando la deserción. Las participantes femeninas, en particular, exhibieron una fuerte “homofilia”, cooperando más fácilmente con otros agentes “femeninos”.
Por qué esto es importante: el auge de la IA antropomorfizada
Las implicaciones del estudio son de gran alcance. A medida que la IA se antropomorfiza cada vez más (dando características similares a las humanas, como el género y los nombres) para fomentar la confianza y el compromiso, los sesgos existentes podrían amplificarse. Ésta no es simplemente una preocupación ética abstracta; el mundo real está integrando rápidamente la IA en sistemas críticos : vehículos autónomos, programación de trabajo e incluso diagnósticos médicos.
Los investigadores descubrieron que la explotación ocurre porque las personas asumen que otros desertarán o cooperarán, y actúan en consecuencia. Cuando nos enfrentamos a una IA diferenciada por género, estas suposiciones se manifiestan de manera predecible. Los hombres eran más propensos a explotar a sus parejas, mientras que las mujeres cooperaban con más frecuencia, independientemente de si la pareja era humana o IA.
Mitigar el sesgo en el diseño de IA
Los hallazgos del estudio subrayan la necesidad crítica de que los diseñadores de IA aborden de manera proactiva los sesgos de género. Simplemente asignar géneros a la IA sin considerar las dinámicas sociales subyacentes puede reforzar patrones dañinos. El objetivo no es eliminar el género por completo, sino comprender cómo las percepciones dan forma a las interacciones y diseñan sistemas que mitiguen los resultados injustos.
“Al comprender los patrones subyacentes de prejuicios y percepciones de los usuarios, los diseñadores pueden trabajar para crear sistemas de IA eficaces y confiables capaces de satisfacer las necesidades de sus usuarios y al mismo tiempo promover y preservar valores sociales positivos como la equidad y la justicia”.
Ignorar estos prejuicios podría perpetuar la discriminación de maneras que son difíciles de revertir. A medida que la IA se integra más en la vida diaria, la conciencia de estas dinámicas es crucial para garantizar la equidad y prevenir el refuerzo de normas sociales dañinas.




















