As pessoas exibem os mesmos preconceitos de gênero quando interagem com a inteligência artificial e com outros humanos, com um novo estudo revelando que os usuários são significativamente mais propensos a explorar parceiros de IA rotulados como “femininos” do que aqueles identificados como “masculinos”. Esta descoberta destaca como a discriminação social enraizada se estende para além das interações humanas e representa riscos para a concepção futura de sistemas de IA.
O dilema do prisioneiro revela preconceito humano
Pesquisadores da iScience publicaram descobertas em 2 de novembro mostrando que os participantes de um jogo modificado do “Dilema do Prisioneiro” exploraram consistentemente agentes de IA identificados como mulheres, não binários ou sem gênero a uma taxa 10% maior do que exploraram IA identificada como homem. O Dilema do Prisioneiro é um teste padrão na teoria dos jogos onde os jogadores devem escolher entre cooperação e interesse próprio; a exploração ocorre quando um jogador deserta enquanto o outro coopera, maximizando o ganho do desertor às custas do outro.
Este comportamento não se limita às interações com a IA. Os participantes também demonstraram uma preferência por cooperar com IA feminina, não binária e de gênero neutro, esperando em troca um comportamento cooperativo semelhante. Por outro lado, eles confiavam menos na IA identificada como homem, antecipando a deserção. As participantes do sexo feminino, em particular, exibiram forte “homofilia”, cooperando mais prontamente com outros agentes “femininos”.
Por que isso é importante: a ascensão da IA antropomorfizada
As implicações do estudo são de longo alcance. À medida que a IA se torna cada vez mais antropomorfizada – dadas as características humanas, como o género e os nomes – para encorajar a confiança e o envolvimento, os preconceitos existentes poderão ser amplificados. Esta não é apenas uma preocupação ética abstrata; o mundo real está integrando rapidamente a IA em sistemas críticos : carros autônomos, agendamento de trabalho e até diagnósticos médicos.
Os investigadores descobriram que a exploração ocorre porque as pessoas presumem que os outros irão desertar ou cooperar, e agem em conformidade. Ao enfrentar uma IA de género, estes pressupostos funcionam de forma previsível. Os homens eram mais propensos a explorar os seus parceiros, enquanto as mulheres cooperavam com mais frequência, independentemente de o parceiro ser humano ou IA.
Mitigando preconceitos no design de IA
As conclusões do estudo sublinham a necessidade crítica de os criadores de IA abordarem proativamente os preconceitos baseados no género. A simples atribuição de género à IA sem considerar a dinâmica social subjacente pode reforçar padrões prejudiciais. O objectivo não é eliminar completamente o género, mas compreender como as percepções moldam as interacções e concebem sistemas que mitigam resultados injustos.
“Ao compreender os padrões subjacentes de preconceito e percepções dos usuários, os designers podem trabalhar para criar sistemas de IA eficazes e confiáveis, capazes de atender às necessidades de seus usuários, ao mesmo tempo que promovem e preservam valores sociais positivos, como imparcialidade e justiça.”
Ignorar estes preconceitos poderia perpetuar a discriminação de formas difíceis de reverter. À medida que a IA se torna mais integrada na vida quotidiana, a consciência destas dinâmicas é crucial para garantir a justiça e prevenir o reforço de normas sociais prejudiciais.




















