Ludzie w interakcji ze sztuczną inteligencją wykazują te same uprzedzenia związane z płcią, co w przypadku innych ludzi. Nowe badanie pokazuje, że użytkownicy znacznie częściej wykorzystują partnerów AI zidentyfikowanych jako „kobiety” niż ci zidentyfikowani jako „mężczyźni”. Odkrycie to podkreśla, jak głęboko zakorzeniona dyskryminacja społeczna wykracza poza interakcje międzyludzkie i stwarza ryzyko dla przyszłego projektowania systemów sztucznej inteligencji.
Dylemat więźnia ujawnia ludzkie uprzedzenia
Badacze z iScience opublikowali 2 listopada wyniki badania pokazujące, że uczestnicy zmodyfikowanej gry Dylemat więźnia konsekwentnie wykorzystywali agentów AI zidentyfikowanych jako kobiety, osoby niebinarne lub nieokreślone płciowo o 10% częściej niż sztuczna inteligencja zidentyfikowana jako mężczyźni. Dylemat więźnia to standardowy test z teorii gier, w którym gracze muszą wybrać między współpracą a własnym interesem; wyzysk ma miejsce, gdy jeden gracz oszukuje, a drugi współpracuje, maksymalizując korzyści oszusta kosztem drugiego.
To zachowanie nie ogranicza się do interakcji z AI. Uczestnicy wykazali również, że wolą współpracować z żeńskimi, niebinarnymi i neutralnymi pod względem płci sztucznymi inteligencjami, oczekując w zamian podobnej współpracy. Natomiast mniej ufały sztucznej inteligencji zidentyfikowanej jako mężczyzna, spodziewając się oszukać. Szczególnie uczestniczki wykazywały silną „homofilię”, będąc bardziej skłonne do współpracy z innymi „żeńskimi” agentkami.
Dlaczego to ma znaczenie: powstanie antropomorficznej sztucznej inteligencji
Konsekwencje tych badań są dalekosiężne. W miarę jak sztuczna inteligencja ulega coraz większej antropomorfizacji – biorąc pod uwagę cechy ludzkie, takie jak płeć i imię – w celu wzbudzenia zaufania i zaangażowania, istniejące uprzedzenia mogą się nasilić. Nie jest to tylko abstrakcyjny problem etyczny; prawdziwy świat szybko integruje sztuczną inteligencję z krytycznymi systemami : samochodami autonomicznymi, planowaniem pracy, a nawet diagnostyką medyczną.
Naukowcy odkryli, że do wyzysku dochodzi, ponieważ ludzie zakładają, że inni albo oszukają, albo będą współpracować i odpowiednio postępować. W konfrontacji z sztuczną inteligencją uwarunkowaną płcią założenia te są realizowane w przewidywalny sposób. Mężczyźni częściej wykorzystywali swoich partnerów, a kobiety chętniej współpracowały, niezależnie od tego, czy partnerem był człowiek, czy sztuczna inteligencja.
Łagodzenie błędów w projektowaniu sztucznej inteligencji
Wyniki badania podkreślają, że projektanci sztucznej inteligencji muszą aktywnie zająć się uprzedzeniami związanymi z płcią. Samo przypisanie płci sztucznej inteligencji bez uwzględnienia leżącej u jej podstaw dynamiki społecznej może wzmocnić szkodliwe wzorce. Celem nie jest całkowite wyeliminowanie płci, ale zrozumienie, w jaki sposób percepcja kształtuje interakcje i opracowanie systemów łagodzących niesprawiedliwe skutki.
„Rozumiejąc podstawowe wzorce uprzedzeń i postrzegania użytkowników, projektanci mogą pracować nad stworzeniem skutecznych, godnych zaufania systemów sztucznej inteligencji, które będą w stanie zaspokoić potrzeby użytkowników, jednocześnie promując i zachowując pozytywne wartości społeczne, takie jak uczciwość i sprawiedliwość”.
Ignorowanie tych uprzedzeń może utrwalić dyskryminację w sposób trudny do odwrócenia. W miarę jak sztuczna inteligencja staje się coraz bardziej zintegrowana z życiem codziennym, świadomość tej dynamiki ma kluczowe znaczenie dla zapewnienia sprawiedliwości i zapobiegania wzmacnianiu szkodliwych norm społecznych.




















