Le persone mostrano gli stessi pregiudizi basati sul genere quando interagiscono con l’intelligenza artificiale come fanno con altri esseri umani, e un nuovo studio rivela che gli utenti sono significativamente più propensi a sfruttare partner IA etichettati come “femminili” rispetto a quelli identificati come “maschi”. Questa scoperta evidenzia come la radicata discriminazione sociale si estende oltre le interazioni umane e pone rischi per la futura progettazione dei sistemi di intelligenza artificiale.
Il dilemma del prigioniero rivela i pregiudizi umani
I ricercatori di iScience hanno pubblicato il 2 novembre risultati che dimostrano che i partecipanti a un gioco modificato “Il dilemma del prigioniero” sfruttavano costantemente agenti IA identificati come femmine, non binari o senza genere a un tasso superiore del 10% rispetto a quelli che sfruttavano l’IA identificata come maschio. Il dilemma del prigioniero è un test standard nella teoria dei giochi in cui i giocatori devono scegliere tra cooperazione e interesse personale; lo sfruttamento si verifica quando un giocatore diserta mentre l’altro coopera, massimizzando il guadagno del disertore a spese dell’altro.
Questo comportamento non è limitato alle interazioni con l’intelligenza artificiale. I partecipanti hanno anche dimostrato una preferenza per la cooperazione con IA femminili, non binarie e di genere neutro, aspettandosi in cambio un comportamento cooperativo simile. Al contrario, avevano meno fiducia nell’intelligenza artificiale identificata dagli uomini, anticipando la defezione. Le partecipanti donne, in particolare, hanno mostrato una forte “omofilia”, cooperando più prontamente con altri agenti “femminili”.
Perché è importante: l’ascesa dell’intelligenza artificiale antropomorfizzata
Le implicazioni dello studio sono di vasta portata. Man mano che l’intelligenza artificiale diventa sempre più antropomorfizzata – date caratteristiche simili a quelle umane come il genere e i nomi – per incoraggiare la fiducia e l’impegno, i pregiudizi esistenti potrebbero essere amplificati. Questa non è semplicemente una preoccupazione etica astratta; il mondo reale sta rapidamente integrando l’intelligenza artificiale nei sistemi critici : automobili a guida autonoma, pianificazione del lavoro e persino diagnosi mediche.
I ricercatori hanno scoperto che lo sfruttamento avviene perché le persone presumono che gli altri disertino o collaborino e agiscono di conseguenza. Di fronte a un’intelligenza artificiale di genere, questi presupposti si manifestano in modi prevedibili. Gli uomini erano più inclini a sfruttare i propri partner mentre le donne collaboravano più spesso, indipendentemente dal fatto che il partner fosse umano o AI.
Mitigare i pregiudizi nella progettazione dell’intelligenza artificiale
I risultati dello studio sottolineano la necessità fondamentale per i progettisti di intelligenza artificiale di affrontare in modo proattivo i pregiudizi basati sul genere. Assegnare semplicemente i generi all’intelligenza artificiale senza considerare le dinamiche sociali sottostanti può rafforzare modelli dannosi. L’obiettivo non è eliminare del tutto il genere, ma capire come le percezioni modellano le interazioni e progettano sistemi che mitigano i risultati ingiusti.
“Comprendendo i modelli sottostanti di pregiudizi e percezioni degli utenti, i progettisti possono lavorare per creare sistemi di intelligenza artificiale efficaci e affidabili in grado di soddisfare le esigenze degli utenti promuovendo e preservando al tempo stesso valori sociali positivi come l’equità e la giustizia.”
Ignorare questi pregiudizi potrebbe perpetuare la discriminazione in modi difficili da invertire. Man mano che l’intelligenza artificiale diventa sempre più integrata nella vita quotidiana, la consapevolezza di queste dinamiche è fondamentale per garantire l’equità e prevenire il rafforzamento di norme sociali dannose.
