Gendervooroordelen breidt zich uit naar AI: mensen maken vaker misbruik van ‘vrouwelijke’ AI-partners

10

Mensen vertonen dezelfde op gender gebaseerde vooroordelen bij de interactie met kunstmatige intelligentie als bij andere mensen. Uit een nieuwe studie blijkt dat gebruikers een aanzienlijk grotere kans hebben om AI-partners uit te buiten die als ‘vrouwelijk’ zijn bestempeld** dan degenen die als ‘mannelijk’ zijn geïdentificeerd. Deze bevinding benadrukt hoe diepgewortelde maatschappelijke discriminatie verder reikt dan menselijke interacties en risico’s met zich meebrengt voor het toekomstige ontwerp van AI-systemen.

Het gevangenendilemma onthult menselijke vooringenomenheid

Onderzoekers van iScience publiceerden op 2 november bevindingen waaruit bleek dat deelnemers aan een aangepast ‘Prisoner’s Dilemma’-spel consequent AI-agenten uitbuitten die werden geïdentificeerd als vrouwelijk, niet-binair of geen geslacht hadden, in een tempo dat 10% hoger was dan dat ze door mannen geïdentificeerde AI uitbuitten. Het Prisoner’s Dilemma is een standaardtest in de speltheorie waarbij spelers moeten kiezen tussen samenwerking en eigenbelang; Uitbuiting vindt plaats wanneer de ene speler defect raakt terwijl de ander meewerkt, waardoor de winst van de overloper wordt gemaximaliseerd ten koste van de ander.

Dit gedrag is niet beperkt tot interacties met AI. Deelnemers toonden ook een voorkeur voor samenwerking met vrouwelijke, niet-binaire en genderneutrale AI, en verwachtten in ruil daarvoor soortgelijk coöperatief gedrag. Omgekeerd hadden ze minder vertrouwen in door mannen geïdentificeerde AI, in afwachting van afvalligheid. Vooral vrouwelijke deelnemers vertoonden een sterke ‘homofilie’ en werkten gemakkelijker samen met andere ‘vrouwelijke’ agenten.

Waarom dit ertoe doet: de opkomst van antropomorfe AI

De implicaties van het onderzoek zijn verreikend. Naarmate AI steeds meer antropomorf wordt – gegeven mensachtige kenmerken zoals geslacht en namen – om vertrouwen en betrokkenheid te stimuleren, kunnen bestaande vooroordelen worden versterkt. Dit is niet slechts een abstracte ethische zorg; de echte wereld integreert AI snel in kritieke systemen : zelfrijdende auto’s, werkplanning en zelfs medische diagnoses.

De onderzoekers ontdekten dat uitbuiting plaatsvindt omdat mensen ervan uitgaan dat anderen zullen overlopen of zullen samenwerken, en dienovereenkomstig zullen handelen. Wanneer we worden geconfronteerd met een gendergerelateerde AI, spelen deze aannames zich op voorspelbare manieren af. Mannen waren meer geneigd hun partners uit te buiten, terwijl vrouwen vaker samenwerkten, ongeacht of de partner een mens of AI was.

Vooroordelen in AI-ontwerp beperken

De bevindingen van het onderzoek onderstrepen een cruciale noodzaak voor AI-ontwerpers om proactief gendergerelateerde vooroordelen aan te pakken. Het eenvoudigweg toewijzen van geslachten aan AI zonder rekening te houden met de onderliggende sociale dynamiek kan schadelijke patronen versterken. Het doel is niet om gender helemaal te elimineren, maar om te begrijpen hoe percepties interacties vormgeven en systemen ontwerpen die oneerlijke uitkomsten verzachten.

“Door de onderliggende patronen van vooroordelen en gebruikerspercepties te begrijpen, kunnen ontwerpers werken aan het creëren van effectieve, betrouwbare AI-systemen die in staat zijn om aan de behoeften van hun gebruikers te voldoen en tegelijkertijd positieve maatschappelijke waarden zoals eerlijkheid en rechtvaardigheid te bevorderen en te behouden.”

Het negeren van deze vooroordelen kan discriminatie in stand houden op manieren die moeilijk ongedaan te maken zijn. Naarmate AI meer geïntegreerd raakt in het dagelijks leven, is het bewustzijn van deze dynamiek van cruciaal belang om eerlijkheid te garanderen en de versterking van schadelijke maatschappelijke normen te voorkomen.

Попередня статтяDe oorsprong van het leven: kleverige gels zijn misschien wel de eerste wieg geweest