Интеграция
На искусственный интеллект принято делать ставку практически во всех сферах бизнеса и госуправления. Однако по мере накопления опыта рождается понимание того, что может пойти не так при внедрении ИИ в той или иной сфере деятельности. В частности, стали заметны «подводные камни» процесса его использования в HR-департаментах.
Поле битвы — ИИ
Искусственный интеллект — новое поле соревнования сверхдержав и желающих быть причисленных к ним. Не осталась в стороне и наша страна. Президент России Владимир Путин заявил, что «лидер по созданию искусственного интеллекта станет властелином мира» и призвал повсеместно внедрить технологии искусственного интеллекта для успешной цифровой трансформации страны в ближайшее десятилетие.
Однако прежде чем внедрять средства управления, основанные на ИИ, в масштабах страны, стоит посмотреть на опыт работы ИИ-систем при решении более скромных, но в чем-то похожих задач. Например, на положение с внедрением искусственного интеллекта в области управления кадрами. Энтузиазм в этой сфере пока перевешивает, хотя уже видны проблемы, порождаемые ИИ. Основная из них — ИИ, как правило, принимает решения на основе исторических данных. А эти данные могут оказаться из другой «исторической эпохи», с другими приоритетами и ценностями. Что может, в случае применения бездумного ИИ в HR-технологиях, выставить компанию в дурном свете.
Оптимизм в отношении ИИ пока еще мэйнстрим
В 2019 г. Gartner проводила исследование, посвященное применению ИИ в сфере HR. Выяснилось, что внедрили искусственный интеллект 17% опрошенных, еще 30% собирались это сделать до конца 2022 г. Главные надежды на ИИ — улучшение принятия решений на основе данных (о «значительном» успехе проекта сообщили 62% внедривших искусственный интеллект с этой целью), повышение качества работы с персоналом (57%), автоматизация рутинных процессов (56%) и желание сэкономить (51%).
Основных проблем при реализации ИИ-проектов, как считают аналитики Gartner, три. Во-первых, это получение финансирования, поскольку количественная оценка преимуществ от внедрения искусственного интеллекта не всегда очевидна. Во-вторых — ИИ собирает и анализирует огромное количество данных, что вызывает вопросы по поводу их дальнейшего использования, обеспечения конфиденциальности и т. д. И, в-третьих, сложность интеграции ИИ-решений в имеющуюся инфраструктуру.
Все три пункта неудивительны. Любая новая технология испытывает проблемы с доказательством своей полезности. У ИИ-проектов эта проблема немного острей, чем «в среднем» — в ходе опроса Everest Group, в котором приняли участие более 200 мировых лидеров в сфере ИТ, 84% респондентов назвали важной проблемой «долгое ожидание» возврата инвестиций в проекты, связанные с искусственным интеллектом.
Проблемы с обеспечением конфиденциальности собираемых и обрабатываемых «чувствительных» данных также сейчас находятся в центре внимания при реализации любых проектов, в которых эти данные собираются и обрабатываются. Интеграция нового решения в существующий ИТ-ландшафт также традиционно нелегка.
Наиболее интересна вторая часть второго пункта, советующая следить за тем, чтобы исходные данные для ИИ не были предвзяты, ибо в противном случае результаты использования искусственного интеллекта могут повредить бизнесу. «Установите надежные и прозрачные методы сбора данных и обеспечьте разнообразие с точки зрения выбора данных и управления ими», — посоветовали в Gartner. Как оказалось на практике, сделать это не так уж просто.
Эти сложности привели к тому, что среди HR-руководителей появились скептики. Почти половина, 48%, респондентов опроса, обнародованного Gartner в марте 2021 г. заявили, что уже имеющиеся технологии скорее «мешают». И почти четверть, 24%, признали, что не вполне понимают, как «горячие» технологии, в том числе искусственный интеллект влияют на процессы управления кадрами.
Впрочем, 90% опрошенных все равно планируют сохранить или увеличить инвестиции в технологии, при том, что 34% руководителей кадровых структур ожидают урезание бюджетов «на HR» (это вдвое больше, чем в 2020-м).
Проблема исторических данных в том, что они исторические
Проблема с «несправедливостью» ИИ не нова. Еще в 2015 г. в Amazon осознали, что их кадровая система, базирующаяся на искусственном интеллекте предвзята к женщинам. Система базировалась на изучении резюме, поданных за последние десять лет. Большинство резюме, по понятным причинам, подавали мужчины, так что ИИ ничего не оставалось, как следовать сложившейся практике. Впрочем, по информации агентства Reuters, разбиравшегося в ситуации, «гендерная предвзятость была не единственной проблемой». Зачастую ИИ выбирал кандидатов по настолько неочевидным критериям, что казалось, будто он выбирает их наугад.
От DevOps к TestOps: как ускорить процессы тестирования новых приложений и ПО
Интеграция
Закрыв этот проект гигант ритейла, впрочем, не успокоился и внедрил новую ИИ-систему, которая оценивает работу водителей-курьеров. Водители стали жаловаться, что алгоритмы не учитывают обстоятельства, например, отсутствие заказчиков на месте, пробки на дорогах и т. д. При этом обманывать систему оказалось не так уж сложно.
Естественно, Amazon — не единственная крупная компания, в которой ИИ принимал решение на основе исторических данных. Основной результат у всех приблизительно одинаков — усиление и так имеющегося перекоса в пользу белых мужчин из «топовых» учебных заведений.
Также большие сложности могут возникнуть при применении ИИ-решений, которые анализируют в ходе видеоинтервью выражения лиц претендентов на должность или тон, которым они говорят. Теоретически, эти средства должны «выяснить», насколько человек искренен и насколько он «нормален». Однако, например, кандидаты с ограниченными возможностями, люди из социальных страт, нежели те, по которым калибровался ИИ, могут быть сочтены неискренними из-за того, что они волновались о том, в какой момент они должны сказать о своих проблемах со здоровьем или пытались вести себя не естественно, а так, как по их мнению, должны вести себя на собеседовании те самые пресловутые белые мужчины.
Пока проблемы решаются отказом от безусловного использования рекомендации искусственного интеллекта. Например, вводится проверка решения ИИ человеком, а то и двумя. Или отказываются от использования исторических данных и сужения спектра оцениваемой информации «лишней», такой как пол, имя, национальность, оставляя в поле рассмотрения ИИ только наборы профессиональных навыков.
В результате ИИ может выдавать неожиданные решения, например в BMC Software наняли сирийского беженца-дантиста, который «имел опыт программирования» и по этому критерию соответствовал урезанному списку требований. Решение, надо сказать разумное, сирийские медики неплохо переобучаются, карьера офтальмолога Башара Асада тому порука.
А что в России?
В нашей стране вопрос относительно пригодности ИИ для работы в кадровой области пока не так актуален. И проблема «женщин и меньшинств» так остро не стоит, да и искусственный интеллект в этой сфере (впрочем, как и в других) применяется нечасто. Справедливости ради надо отметить, что в иных случаях «естественный» интеллект бывает предвзят не хуже искусственного, что порождает многочисленные истории о девочках-эйчарах, ищущих «опытного сварщика до 35».
И это далеко не только российская специфика, по данным исследования Oracle и Future Workplace, почти две трети сотрудников доверяют роботам больше, чем своим руководителям и «кадровикам». Что не совсем логично — ведь именно эти последние принимают решения о том, какими данными будет снабжен ИИ, но тем не менее.
Однако в будущем, по мере роста применения искусственного интеллекта в «кадрах», проблема соответствия критериев, заложенных в ИИ-системы с реальными требованиями компаний и ситуацией на рынке труда, будет становиться все более важной и у нас. Разве что, к этому времени ИИ будет не только нанимать людей на работу, но и заменять их во многих сферах, отчего сложности с неправильными историческими данными станут не так актуальны на фоне новых проблем.
Иван Петров
Полный текст статьи читайте на CNews