Алгоритмы ранжирования широко используются на таких популярных платформах найма, как LinkedIn, TaskRabbit и Fiverr. Поскольку они склонны к предвзятости, владельцы этих площадок предприняли меры по обеспечению справедливости, сбалансированности и предсказуемости. Но, согласно работе исследователей из филиалов Гарварда и Технического университета Берлина, которые изучали влияние «справедливых» алгоритмов ранжирования на выбор по критерию гендера, даже якобы непредвзятые алгоритмы непоследовательно относятся к определённым кандидатам.

Исследователи специально рассмотрели алгоритмы, используемые на TaskRabbit, сайте, который подбирает пользователям помощников для уборки, переезда и доставки. Как они отмечают, TaskRabbit использует алгоритмы классификации для сортировки доступных работников и создания упорядоченного списка кандидатов, подходящих для данной задачи. Поскольку это напрямую влияет на зарплату, методы отбора могут отрицательно повлиять на недостаточно представленные группы. Эффект обещает быть особенно острым в таких городах, как Сан-Франциско, где фрилансерами чаще всего становятся ‘цветные’ люди и иммигранты.

Соавторы из Гарварда изучали, как предубеждения, в частности гендерные, проникают в TaskRabbit и влияют на реальные решения о найме. Для этого они проанализировали различные взаимодействующие источники предвзятости, включая типы алгоритмов ранжирования, условия работы и присущие работодателям предубеждения.

Исследователи провели опрос 1079 человек, набранных через Amazon Mechanical Turk, с использованием настоящих данных из TaskRabbit. Каждый отвечающий выступал в роли «доверенного работодателя», выбирая кандидатов для трех заданий: покупки товаров, организации мероприятия и помощи в переезде. С этой целью опрошенных попросили выбрать 4 лучших из 10 кандидатов. Затем им были предоставлены списки, сгенерированные одним из трёх алгоритмов ранжирования: первый набирал кандидатов случайным образом (RandomRanking), второй — на основе их оценок TaskRabbit (RabbitRanking), и третьим стал «справедливый» алгоритм ранжирования (FairDet-Greedy) — или версии алгоритмов, которые меняли пол кандидатов с мужского на женский и наоборот.

В своём анализе ученые обнаружили, что, хотя алгоритмы справедливого ранжирования, такие как FairDet-Greedy, помогают увеличить количество нанятых кандидатов-аутсайдеров, их эффективность ограничена условиями сфер занятости, в которых работодатели отдают предпочтение определённому полу. Например, опрашиваемые с меньшей вероятностью выбирали женщин для работ с переездами, а мужчин — для организации мероприятий.

«Наше исследование показывает, что справедливое ранжирование может успешно помочь недопредставленным кандидатам. Однако мы обнаружили, что эффективность справедливого ранжирования непостоянна в зависимости от условий труда и характеристик кандидата, и этого может быть недостаточно для увеличения результатов представления во всех областях деятельности, — пишут исследователи. — Мы надеемся, что эта работа приведет к лучшему пониманию того, как алгоритмические инструменты могут (или не могут) уменьшить гендерную предвзятость при приёме на работу».

В несовершенстве алгоритмов найма нет ничего нового: недавно Amazon отказалась от системы набора персонала, которая показала явную предвзятость в отношении женщин. Но это становится всё более актуальным по мере того, как всё больше компаний, включая Hilton и Goldman Sachs, стремятся автоматизировать отдельные части процесса найма. Согласно опросу 2017 года, проведённому в США компанией CareerBuilder, около 55% менеджеров отдела кадров заявили, что станут использовать ИИ в работе в течение следующих пяти лет.

В отчёте Брукингского института дается несколько советов по уменьшению предвзятости в наймовых алгоритмах, включая определение диапазона входных данных модели, которые могут быть выработаны для всего населения, и создание различных наборов данных, содержащих примеры успешных кандидатов из различных слоёв общества. Но в отчёте также отмечается, что эти шаги не обязательно будут предприняты.

«Алгоритмический найм несет новые перспективы, возможности и риски. Без контроля алгоритмы могут закрепить те же предубеждения и дискриминацию, которые присутствуют в существующей практике, — говорится в отчёте института. — Сейчас правовые средства защиты от дискриминации при приёме на работу действительно применяются при использовании этих алгоритмических инструментов; однако алгоритмы поднимают ряд нерешённых политических вопросов, которые требуют дальнейшего внимания».

Источник: https://venturebeat.com/2020/12/04/researchers-find-that-even-fair-hiring-algorithms-can-be-biased/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *