Гендерные предубеждения распространяются на ИИ: люди чаще эксплуатируют «женских» AI-партнеров

2

Люди проявляют те же гендерные предубеждения при взаимодействии с искусственным интеллектом, что и с другими людьми. Новое исследование показывает, что пользователи значительно чаще эксплуатируют AI-партнеров, обозначенных как «женские», чем тех, кто идентифицируется как «мужские». Этот вывод подчеркивает, насколько глубоко укоренилась общественная дискриминация, выходящая за рамки человеческого взаимодействия, и представляет риски для будущего проектирования AI-систем.

Дилемма заключенного выявляет человеческие предубеждения

Исследователи из iScience опубликовали 2 ноября результаты исследования, показавшего, что участники модифицированной игры «Дилемма заключенного» последовательно эксплуатировали AI-агентов, идентифицированных как женские, небинарные или не имеющие гендера, на 10% чаще, чем AI, идентифицированный как мужской. Дилемма заключенного — стандартный тест в теории игр, где игроки должны выбирать между сотрудничеством и личным интересом; эксплуатация происходит, когда один игрок обманывает, а другой сотрудничает, максимизируя выгоду обманщика за счет другого.

Это поведение не ограничивается взаимодействием с ИИ. Участники также продемонстрировали предпочтение сотрудничать с женскими, небинарными и гендерно-нейтральными ИИ, ожидая взамен аналогичного сотрудничества. Напротив, они меньше доверяли ИИ, идентифицированному как мужскому, ожидая обмана. Женщины-участницы, в частности, проявляли сильную «гомофилию», охотнее сотрудничая с другими «женскими» агентами.

Почему это важно: рост антропоморфизированного ИИ

Последствия этого исследования далеко идущие. Поскольку ИИ становится все более антропоморфизированным — ему придаются человекоподобные характеристики, такие как пол и имена — чтобы поощрить доверие и вовлеченность, существующие предубеждения могут усиливаться. Это не просто абстрактная этическая проблема; реальный мир быстро интегрирует ИИ в критические системы : беспилотные автомобили, планирование работы и даже медицинскую диагностику.

Исследователи обнаружили, что эксплуатация происходит, потому что люди предполагают, что другие либо обманут, либо будут сотрудничать, и действуют соответствующим образом. При столкновении с гендерным ИИ эти предположения реализуются предсказуемым образом. Мужчины были более склонны эксплуатировать своих партнеров, а женщины чаще сотрудничали, независимо от того, был ли партнер человеком или ИИ.

Смягчение предубеждений в дизайне ИИ

Результаты исследования подчеркивают критическую необходимость для дизайнеров ИИ активно устранять гендерные предубеждения. Простое присвоение пола ИИ без учета лежащей в основе социальной динамики может усилить вредные закономерности. Цель не в том, чтобы полностью устранить пол, а в том, чтобы понять, как восприятие формирует взаимодействие, и разработать системы, которые смягчают несправедливые результаты.

«Понимая лежащие в основе закономерности предубеждений и восприятия пользователей, дизайнеры могут работать над созданием эффективных, заслуживающих доверия AI-систем, способных удовлетворять потребности своих пользователей, одновременно продвигая и сохраняя положительные общественные ценности, такие как справедливость и правосудие».

Игнорирование этих предубеждений может увековечить дискриминацию способами, которые трудно обратить вспять. Поскольку ИИ становится все более интегрированным в повседневную жизнь, осведомленность об этих динамиках имеет решающее значение для обеспечения справедливости и предотвращения усиления вредных общественных норм.

Предыдущая статьяЗарождение жизни: Липкие гели как первая колыбель