Lidé vykazují stejné genderové předsudky při interakci s umělou inteligencí jako s jinými lidmi. Nová studie ukazuje, že uživatelé mají významně vyšší pravděpodobnost, že budou využívat partnery AI označené jako „ženy“ než ty, které jsou označeny jako „mužské“. Toto zjištění ukazuje, jak hluboce zakořeněná společenská diskriminace přesahuje lidskou interakci a představuje rizika pro budoucí návrh systémů umělé inteligence.
Vězňovo dilema odhaluje lidské předsudky
Výzkumníci z iScience zveřejnili výsledky studie z 2. listopadu, která ukazuje, že účastníci upravené hry Prisoner’s Dilemma trvale využívali agenty AI identifikované jako ženy, nebinární nebo negenderové o 10 % častěji než AI identifikované jako muži. Vězeňovo dilema je standardní test v teorii her, kde si hráči musí vybrat mezi spoluprací a vlastním zájmem; k vykořisťování dochází, když jeden hráč podvádí a druhý spolupracuje, čímž se maximalizuje prospěch podvodníka na úkor druhého.
Toto chování není omezeno na interakce s AI. Účastníci také prokázali preferenci pro spolupráci s ženskými, nebinárními a genderově neutrálními AI a očekávali podobnou spolupráci na oplátku. Naproti tomu méně důvěřovali AI identifikované jako muži a očekávali, že budou klamat. Zejména ženské účastnice projevovaly silnou „homofilii“ a byly ochotnější spolupracovat s jinými „ženskými“ agenty.
Proč na tom záleží: Vzestup antropomorfizované umělé inteligence
Důsledky tohoto výzkumu jsou dalekosáhlé. Jak se umělá inteligence stále více antropomorfizuje – vzhledem k lidským vlastnostem, jako je pohlaví a jména – s cílem podpořit důvěru a zapojení, stávající předsudky mohou být posíleny. To není jen abstraktní etický problém; skutečný svět rychle integruje umělou inteligenci do kritických systémů : samořídící auta, plánování práce a dokonce i lékařská diagnostika.
Vědci zjistili, že k vykořisťování dochází, protože lidé předpokládají, že ostatní budou buď klamat, nebo spolupracovat a jednat podle toho. Při konfrontaci s genderovou umělou inteligencí se tyto předpoklady realizují předvídatelnými způsoby. Muži častěji vykořisťovali své partnerky a ženy častěji spolupracovaly, bez ohledu na to, zda partner byl člověk nebo umělá inteligence.
Zmírnění předsudků v designu AI
Závěry studie zdůrazňují zásadní potřebu návrhářů umělé inteligence proaktivně řešit genderové předsudky. Pouhé přiřazení pohlaví k AI bez zohlednění základní sociální dynamiky může posílit škodlivé vzorce. Cílem není zcela odstranit pohlaví, ale pochopit, jak vnímání utváří interakce a vyvinout systémy, které zmírňují nespravedlivé výsledky.
„Pochopením základních vzorců předpojatosti a vnímání uživatelů mohou návrháři pracovat na vytvoření efektivních a důvěryhodných systémů umělé inteligence, které dokážou vyhovět potřebám svých uživatelů a zároveň podporovat a zachovávat pozitivní sociální hodnoty, jako je spravedlnost a spravedlnost.“
Ignorování těchto předsudků může udržovat diskriminaci způsoby, které je obtížné zvrátit. Jak se umělá inteligence stále více začleňuje do každodenního života, povědomí o této dynamice je zásadní pro zajištění spravedlnosti a předcházení posilování škodlivých společenských norem.




















