Menschen zeigen bei der Interaktion mit künstlicher Intelligenz die gleichen geschlechtsspezifischen Vorurteile wie bei anderen Menschen. Eine neue Studie zeigt, dass Benutzer deutlich häufiger KI-Partner ausnutzen, die als „weiblich“ gekennzeichnet sind, als solche, die als „männlich“ identifiziert werden. Dieses Ergebnis verdeutlicht, dass tief verwurzelte gesellschaftliche Diskriminierung über menschliche Interaktionen hinausgeht und Risiken für die zukünftige Gestaltung von KI-Systemen birgt.
Das Gefangenendilemma offenbart menschliche Voreingenommenheit
Forscher von iScience veröffentlichten am 2. November Ergebnisse, die zeigen, dass Teilnehmer eines modifizierten „Prisoner’s Dilemma“-Spiels durchweg KI-Agenten ausnutzten, die als weiblich, nicht-binär oder ohne Geschlecht identifiziert wurden, und zwar mit einer um 10 % höheren Rate als bei männlich identifizierter KI. Das Gefangenendilemma ist ein Standardtest in der Spieltheorie, bei dem Spieler zwischen Kooperation und Eigennutz wählen müssen; Ausbeutung liegt vor, wenn ein Spieler abtrünnig wird, während der andere kooperiert, wodurch der Gewinn des Abtrünnigen auf Kosten des anderen maximiert wird.
Dieses Verhalten ist nicht auf Interaktionen mit KI beschränkt. Die Teilnehmer zeigten auch eine Präferenz für die Zusammenarbeit mit weiblicher, nicht-binärer und geschlechtsneutraler KI und erwarteten im Gegenzug ein ähnliches kooperatives Verhalten. Umgekehrt hatten sie weniger Vertrauen in die von Männern identifizierte KI und rechneten damit, dass sie abwandern würden. Vor allem weibliche Teilnehmer zeigten eine starke „Homophilie“ und kooperierten leichter mit anderen „weiblichen“ Agenten.
Warum das wichtig ist: Der Aufstieg der anthropomorphisierten KI
Die Implikationen der Studie sind weitreichend. Da die KI zunehmend anthropomorphisiert wird – indem sie menschenähnliche Merkmale wie Geschlecht und Namen erhält –, um Vertrauen und Engagement zu fördern, könnten bestehende Vorurteile verstärkt werden. Dabei handelt es sich nicht nur um ein abstraktes ethisches Anliegen; Die reale Welt integriert KI schnell in kritische Systeme : selbstfahrende Autos, Arbeitsplanung und sogar medizinische Diagnosen.
Die Forscher fanden heraus, dass es zu Ausbeutung kommt, weil Menschen davon ausgehen, dass andere entweder überlaufen oder kooperieren, und entsprechend handeln. Bei einer geschlechtsspezifischen KI wirken sich diese Annahmen auf vorhersehbare Weise aus. Männer neigten eher dazu, ihre Partner auszubeuten, während Frauen häufiger kooperierten, unabhängig davon, ob der Partner ein Mensch oder eine KI war.
Abmilderung von Verzerrungen im KI-Design
Die Ergebnisse der Studie unterstreichen die dringende Notwendigkeit für KI-Designer, geschlechtsspezifische Vorurteile proaktiv anzugehen. Die bloße Zuordnung von Geschlechtern zur KI, ohne die zugrunde liegende soziale Dynamik zu berücksichtigen, kann schädliche Muster verstärken. Das Ziel besteht nicht darin, das Geschlecht völlig zu eliminieren, sondern zu verstehen, wie Wahrnehmungen Interaktionen prägen und Systeme entwerfen, die unfaire Ergebnisse abmildern.
„Durch das Verständnis der zugrunde liegenden Voreingenommenheitsmuster und Benutzerwahrnehmungen können Designer daran arbeiten, effektive, vertrauenswürdige KI-Systeme zu schaffen, die in der Lage sind, die Bedürfnisse ihrer Benutzer zu erfüllen und gleichzeitig positive gesellschaftliche Werte wie Fairness und Gerechtigkeit zu fördern und zu bewahren.“
Das Ignorieren dieser Vorurteile könnte die Diskriminierung in einer Weise aufrechterhalten, die schwer rückgängig zu machen ist. Da KI immer stärker in das tägliche Leben integriert wird, ist das Bewusstsein für diese Dynamik von entscheidender Bedeutung, um Gerechtigkeit zu gewährleisten und die Verstärkung schädlicher gesellschaftlicher Normen zu verhindern.




















