В Нью-Йорке приняли закон, который запрещает использовать ИИ для хайринга без предупреждения
Власти города Нью-Йорк приняли закон, который регулирует использование компаниями искусственного интеллекта при найме и продвижении персонала по службе, пишет New York Times. Новые правила должны сделать эти процессы более справедливыми для потенциальных и действующих сотрудников.
Так, работодателям и рекрутинговым фирмам запрещается применять тот или иной «автоматизированный инструмент для решений о найме, если он не проходил проверку на предвзятость в течение одного года его использования, информация о его проверке на предвзятость не находится в открытом доступе», и если сотрудников и соискателей не предупреждают о его использовании. Речь идёт о предвзятостях по национальному или расовому и гендерному признакам. Компаний-нарушителей ждёт штраф.
Закон был принят ещё в 2021 году, но его вступление в силу постоянно затягивалось из-за необходимости уточнения того, какие именно инструменты он должен охватывать и что должна представлять из себя проверка и её итоги. Окончательная версия была опубликована в середине апреля, а заработает он 5 июля.
Это первый подобный закон в стране. Критики недовольны формулировкой «автоматизированный инструмент для принятия решений о найме» — они считают, что оно слишком расплывчатое и что работодатели всё равно продолжат применять «предвзятые» инструменты, если окончательное решение о найме будет принимать человек.
Как отмечает Dice, работодатели много лет пытаются автоматизировать процесс хайринга, и проблема предвзятости существовала с самого начала. Например, в 2018 году Amazon пыталась построить рекрутинговую платформу на базе машинного обучения. За основу была взята база резюме за десять лет. Сразу же обнаружился сдвиг в пользу кандидатов мужского пола, поскольку на них приходилось большинство резюме, и алгоритмы посчитали их более предпочтительными кандидатами. Проект был свёрнут.
Между тем компании активно пользуются ИИ при найме: согласно исследованию 2022 года, примерно четверть компаний прибегает к помощи инструментов для автоматизации и/или на основе ИИ в эйчарских задачах.
Речь идёт о предвзятостях по национальному или расовому и гендерному признакам.
Под "предвзятостью" тут понимается то, что алгоритму н***ать какого ты пола или расы - он смотрит исключительно на то, как ты работаешь. И потому повесточка в опасности!
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Под "предвзятостью" тут понимается то, что алгоритму н***ать какого ты пола или расы - он смотрит исключительно на то, как ты работаешь. И потому повесточка в опасности!
алгоритму да - плевать, а вот ИИ будет делать как обучен, а можно обучить чтобы игнорировал какие то страны или цвет кожи
а главное - если датасет на котором обучался потерян, нифига не докажешь справедливо или нет :)
ага, можно говорить - это просто матрица чисел так решила
бумагомаратели