Les préjugés sexistes s’étendent à l’IA : les gens sont plus susceptibles d’exploiter les partenaires « féminins » de l’IA

4

Les gens présentent les mêmes préjugés sexistes lorsqu’ils interagissent avec l’intelligence artificielle qu’avec d’autres humains, avec une nouvelle étude révélant que les utilisateurs sont significativement plus susceptibles d’exploiter des partenaires d’IA étiquetés comme « féminins » que ceux identifiés comme « masculins ». Cette découverte met en évidence à quel point la discrimination sociétale enracinée s’étend au-delà des interactions humaines et présente des risques pour la conception future des systèmes d’IA.

Le dilemme du prisonnier révèle les préjugés humains

Des chercheurs d’iScience ont publié le 2 novembre des résultats montrant que les participants à un jeu modifié du « dilemme du prisonnier » exploitaient systématiquement des agents d’IA identifiés comme étant de sexe féminin, non binaires ou sans sexe, à un taux 10 % plus élevé que celui utilisé pour l’IA identifiée comme un homme. Le dilemme du prisonnier est un test standard de la théorie des jeux dans lequel les joueurs doivent choisir entre coopération et intérêt personnel ; L’exploitation se produit lorsqu’un joueur fait défaut tandis que l’autre coopère, maximisant ainsi le gain du transfuge aux dépens de l’autre.

Ce comportement ne se limite pas aux interactions avec l’IA. Les participants ont également démontré une préférence pour la coopération avec des IA féminines, non binaires et non sexistes, s’attendant en retour à un comportement coopératif similaire. À l’inverse, ils faisaient moins confiance aux IA identifiées par des hommes, anticipant une défection. Les participantes, en particulier, ont fait preuve d’une forte « homophilie », coopérant plus facilement avec d’autres agents « féminins ».

Pourquoi c’est important : l’essor de l’IA anthropomorphisée

Les implications de l’étude sont considérables. À mesure que l’IA devient de plus en plus anthropomorphisée – compte tenu de caractéristiques humaines telles que le sexe et les noms – pour encourager la confiance et l’engagement, les préjugés existants pourraient être amplifiés. Il ne s’agit pas simplement d’une préoccupation éthique abstraite ; le monde réel intègre rapidement l’IA dans les systèmes critiques : voitures autonomes, planification du travail et même diagnostics médicaux.

Les chercheurs ont découvert que l’exploitation se produit parce que les gens supposent que les autres feront défection ou coopéreront et agiront en conséquence. Face à une IA sexospécifique, ces hypothèses se manifestent de manière prévisible. Les hommes étaient plus enclins à exploiter leur partenaire tandis que les femmes coopéraient plus souvent, que le partenaire soit humain ou IA.

Atténuer les biais dans la conception de l’IA

Les résultats de l’étude soulignent la nécessité cruciale pour les concepteurs d’IA de lutter de manière proactive contre les préjugés sexistes. Le simple fait d’attribuer des genres à l’IA sans tenir compte de la dynamique sociale sous-jacente peut renforcer des schémas néfastes. L’objectif n’est pas d’éliminer complètement le genre, mais de comprendre comment les perceptions façonnent les interactions et de concevoir des systèmes qui atténuent les conséquences injustes.

“En comprenant les modèles sous-jacents de préjugés et les perceptions des utilisateurs, les concepteurs peuvent travailler à la création de systèmes d’IA efficaces et fiables, capables de répondre aux besoins de leurs utilisateurs tout en promouvant et en préservant des valeurs sociétales positives telles que l’équité et la justice.”

Ignorer ces préjugés pourrait perpétuer une discrimination d’une manière difficile à inverser. À mesure que l’IA s’intègre de plus en plus dans la vie quotidienne, il est crucial d’être conscient de ces dynamiques pour garantir l’équité et empêcher le renforcement de normes sociétales néfastes.

Article précédentLes origines de la vie : les gels collants ont peut-être été le premier berceau