В Нью-Йорке вступил в действие закон об использовании программ и нейросетей при приеме на работу, сообщает The Wall Street Journal. Компаниям, которые используют такие инструменты, теперь придется проверять их на предмет расовой и гендерной предвзятости, а затем публиковать отчеты.
Закон касается ПО для принятия решений о найме и продвижении по службе. В их число входят чат-боты для проведения собеседований и сканеры резюме, которые ищут совпадения ключевых слов.
Теперь работодателям придется ежегодно анализировать эти инструменты на предмет возможной дискриминации. Они также будут обязаны рассказать, одинаково ли та или иная процедура оценивает представителей определенной расы или пола и раскрыть коэффициенты таких оценок.
Коэффициенты (от 0 до 1) ближе к единице означают незначительное или полное отсутствие предвзятости, в то время как коэффициент 0,3 показывает, например, что на каждые 10 кандидатов-мужчин, прошедших отбор, приходится три кандидата-женщины.
«Предполагается, что если работодатель увидит коэффициенты влияния, каким‑то образом указывающие на предвзятость, то он, возможно, что‑то изменит. Это довольно непрочное предположение, но это первый шаг», — сказала в комментарии WSJ Виктория Липник, бывшая уполномоченная федеральной Комиссии по обеспечению равных возможностей в сфере занятости.
Низкий коэффициент не обязательно означает, что работодатель дискриминирует кандидатов, поясняет Липник. Согласно ранее принятым законам, расовое или гендерное неравенство может быть оправдано, если критерии найма связаны с работой и соответствуют деловой необходимости.
Например, темнокожие и латиноамериканцы заканчивают ВУЗы реже, чем белые и азиатоамериканцы. Если работодатель докажет, что наличие высшего образования является необходимым требованием для работы, и поэтому его система отсеивает большую долю латиноамериканских кандидатов, поскольку меньшее количество из них имеют высшее образование, то суд не станет наказывать его за дискриминацию.
Согласно закону, соискатели получат возможность запросить альтернативу отбору или сортировке с помощью программного обеспечения. В случае невыполнения требований работодатели будут платить штрафы в размере до полутора тыс. долларов США за нарушение в день. Информация о программах работодателей в этом случае может быть доказательством в суде.
Как считает основатель рекрутинговой программной платформы Pymetrics и консультант городского совета Нью-Йорка Фрида Полли, снижение и устранение предвзятости ПО возможно, потому что у разработчиков теперь больше возможностей для предварительного тестирования своих инструментов. «Конечно, это потребует больше усилий и толкает нас к обновлениям. Но ни к чему пользоваться тем, что дискриминирует людей», — уверена она.
WSJ вспоминает наиболее громкий случай дискриминирующего софта. Около 10 лет назад Amazon разработал алгоритм подбора персонала, который анализировал 10-летние заявки от ведущих инженеров-программистов и затем искал кандидатов, чья биография была похожа на их. Но поскольку большинство кандидатов за эти годы были мужчинами, алгоритм быстро снижал рейтинг кандидатов-женщин, которые использовали в резюме определенные термины или заканчивали некоторые женские колледжи.
Корпорация прекратила использование программы после того, как поняла, что происходит. «Этот проект использовался только в пробном режиме и всегда проходил под наблюдением человека», — заявил тогда представитель Amazon.