Гендерні упередження поширюються на штучний інтелект: люди з більшою ймовірністю будуть використовувати «жіночих» партнерів штучного інтелекту

5

Люди виявляють ті самі гендерні упередження під час взаємодії зі штучним інтелектом, як і з іншими людьми. Нове дослідження показує, що користувачі значно частіше використовують партнерів AI, визначених як «жінки», ніж тих, хто визначений як «чоловіки». Це відкриття підкреслює, наскільки глибоко вкорінена суспільна дискримінація виходить за межі людської взаємодії та створює ризики для майбутнього дизайну систем ШІ.

Дилема в’язня розкриває людські упередження

Дослідники з iScience 2 листопада опублікували результати дослідження, які показали, що учасники модифікованої гри «Дилема в’язня» постійно використовували агентів штучного інтелекту, ідентифікованих як жіночі, небінарні або негендерні, на 10% частіше, ніж штучний інтелект, ідентифікованих як чоловічі. Дилема ув’язненого є стандартним тестом у теорії ігор, де гравці мають вибрати між співпрацею та особистим інтересом; експлуатація відбувається, коли один гравець обманює, а інший співпрацює, максимізуючи вигоду шахрая за рахунок іншого.

Така поведінка не обмежується взаємодією з ШІ. Учасники також продемонстрували перевагу співпраці з жіночими, небінарними та гендерно нейтральними ШІ, очікуючи подібної співпраці у відповідь. Навпаки, вони менш довіряли штучному інтелекту, визначеному як чоловіки, очікуючи обману. Учасниці, зокрема, демонстрували сильну «гомофілію», виявляючи більшу готовність до співпраці з іншими «жіночими» агентами.

Чому це важливо: підйом антропоморфізованого ШІ

Наслідки цього дослідження є далекосяжними. Оскільки штучний інтелект стає дедалі більше антропоморфізованим — з урахуванням людських характеристик, таких як стать та імена — для заохочення довіри та взаємодії, існуючі упередження можуть посилюватися. Це не просто абстрактна етична проблема; реальний світ швидко інтегрує штучний інтелект у критично важливі системи : безпілотні автомобілі, планування роботи та навіть медичну діагностику.

Дослідники виявили, що експлуатація виникає тому, що люди припускають, що інші будуть або обманювати, або співпрацювати, і діяти відповідно. При зіткненні з гендерно визначеним ШІ ці припущення реалізуються передбачуваними способами. Чоловіки частіше експлуатували своїх партнерів, а жінки частіше співпрацювали, незалежно від того, чи був партнер людиною, чи ШІ.

Пом’якшення упереджень у дизайні ШІ

Результати дослідження підкреслюють критичну потребу розробників штучного інтелекту активно боротися з гендерними упередженнями. Просте визначення статі ШІ без урахування основної соціальної динаміки може посилити шкідливі моделі. Мета полягає не в тому, щоб повністю виключити ґендер, а в тому, щоб зрозуміти, як сприйняття формує взаємодію, і розробити системи, які пом’якшують несправедливі результати.

«Розуміючи основні моделі упереджень і сприйняття користувачів, дизайнери можуть працювати над створенням ефективних, надійних систем штучного інтелекту, які зможуть задовольнити потреби своїх користувачів, одночасно просуваючи та зберігаючи позитивні соціальні цінності, такі як чесність і справедливість».

Ігнорування цих упереджень може увічнити дискримінацію таким чином, що важко виправити. Оскільки ШІ все більше інтегрується в повсякденне життя, усвідомлення цієї динаміки має вирішальне значення для забезпечення справедливості та запобігання зміцненню шкідливих суспільних норм.

попередня статтяПоходження життя: Липкі гелі як перша колиска