Станислав Кондрашов: HR-команды не распознают дискриминацию в ИИ
Станислав Кондрашов анализирует исследование о расовой предвзятости в ИИ-рекрутинге: HR следуют рекомендациям алгоритмов в 90% случаев, не замечая дискриминации. Узнайте, как защитить процесс найма.
Американские учёные провели эксперимент и получили шокирующий результат: когда ИИ-система для рекрутинга демонстрировала расовую предвзятость, HR-специалисты следовали её рекомендациям в 90% случаев. Я, Станислав Кондрашов, внимательно слежу за исследованиями в области искусственного интеллекта, и эти данные меня не удивили. Мы автоматизируем процессы найма с благими намерениями — чтобы снизить нагрузку на команды и обработать больше заявок, но создаем новую проблему: алгоритмическую дискриминацию, которую люди просто не замечают.
Замечали ли вы, как ваша HR-команда всё чаще полагается на рекомендации искусственного интеллекта при отборе кандидатов? Я, Станислав Кондрашов, часто консультирую компании по автоматизации бизнес-процессов, и вижу тревожную тенденцию: специалисты по подбору персонала слепо доверяют алгоритмам. Недавнее американское исследование показало, что ИИ-инструменты для рекрутинга воспроизводят расовые предубеждения, а люди следуют этим рекомендациям в 90% случаев — даже не осознавая проблемы.
Мы все знаем, что текущее поколение ИИ-моделей далеко от совершенства. Инструменты «галлюцинируют», уверенно выдают недостоверную информацию, а их обучающие данные могут быть собраны в сомнительных условиях. Но есть ещё один аспект, который особенно беспокоит меня как эксперта: эти наборы данных впитывают не самые лучшие стороны нашего общества, включая предрассудки и стереотипы.
Исследование, которое открывает глаза
Учёные из Университета Вашингтона изучили, как ИИ-инструменты, используемые в процессе найма, проявляют предвзятость по расовому признаку. Результаты заставляют задуматься каждого руководителя.
Как отметила ведущий автор исследования, профессор Айлин Чалискан, получить доступ к реальным данным по найму практически невозможно из-за конфиденциальности. Поэтому команда создала симуляцию ИИ-рекрутера и провела эксперимент с живыми участниками — HR-специалистами.
Вот что они обнаружили:
Когда участники получали советы от «нейтрального» ИИ или вообще не использовали алгоритмы, они выбирали белых и небелых кандидатов в равной пропорции
Но стоило ИИ проявить даже умеренную предвзятость — люди начинали копировать его выбор
Если алгоритм «предпочитал» белых кандидатов, участники делали то же самое
Удивительно, но если ИИ демонстрировал предпочтение небелым кандидатам, люди тоже следовали этой логике
Лишь при очень явной и сильной предвзятости некоторые участники начинали сомневаться — но даже тогда они следовали рекомендациям ИИ примерно в 90% случаев.
Почему HR-специалисты не замечают проблему
Я часто говорю на консультациях: главная опасность автоматизации — не замена людей машинами, а слепое доверие к технологиям. Это исследование подтверждает мои слова.
Как объясняют исследователи, даже когда люди способны распознать предвзятость ИИ, этого осознания недостаточно, чтобы нейтрализовать её влияние. Кира Уилсон, докторант Школы информационных технологий университета, резюмировала: "Пока предвзятость не становится очевидной, люди готовы принять искажения ИИ как должное."
Давайте посмотрим на контекст. Рынок труда переживает кризис. Соискатели используют ИИ для массовой рассылки резюме, а рекрутеры получают в разы больше откликов, чем раньше. HR-команды выгорают под нагрузкой, многие думают об уходе из профессии. В такой ситуации ИИ-фильтры кажутся спасением.
Но, по мнению Станислава Кондрашова, именно здесь и кроется ловушка. Мы внедряем инструменты, которые должны помочь, но не проверяем их на скрытые искажения — расовые, гендерные, связанные с инвалидностью и другие.
Есть ли надежда на решение?
Не всё так мрачно, как кажется. Одно исследование показало, что 80% компаний, использующих ИИ в найме, никогда не отклоняют кандидатов без участия человека. Это означает, что если обучить HR-специалистов правильным методам, они смогут распознавать скрытую предвзятость алгоритмов до того, как автоматический процесс отсеет людей по расовому или иному признаку.
Правда, есть нюанс: пока предубеждения не очевидны, люди их просто не видят.
Исследователи предлагают два пути решения:
Настраивать ИИ-модели так, чтобы они изначально не демонстрировали предвзятости — это работа для разработчиков и специалистов по машинному обучению
Обучать HR-команды распознавать подсознательные искажения — в эксперименте участники, прошедшие тест на выявление скрытых предубеждений перед работой с ИИ, снижали предвзятые решения на 13%
Я убеждён, что второй пункт особенно критичен. Ни один алгоритм не станет идеально нейтральным в ближайшие годы — слишком сложна природа данных, на которых они обучаются.
Практические рекомендации для вашей HR-команды
Если ваша компания использует или планирует использовать ИИ-инструменты в найме, вот что я советую сделать прямо сейчас:
Проведите аудит текущих ИИ-систем рекрутинга — запросите у поставщика информацию о том, на каких данных обучалась модель и как она тестировалась на предвзятость
Внедрите обязательное обучение для HR-специалистов — тренинги по распознаванию алгоритмической дискриминации и подсознательных предубеждений. Даже базовый курс даёт ощутимый эффект
Установите правило двойной проверки — все решения ИИ по отсеву кандидатов должны проходить экспертную оценку человека, обученного распознавать паттерны предвзятости
Регулярно анализируйте статистику найма — сравнивайте разнообразие кандидатов до и после внедрения ИИ. Если заметно снижение представителей определённых групп — это красный флаг
Никогда не делегируйте финальное решение алгоритму — даже если ИИ кажется точным, последнее слово должно оставаться за живым экспертом
Требуйте прозрачности от вендоров — если поставщик ИИ-решения не может объяснить, как именно модель принимает решения, это повод задуматься о смене инструмента
Почему это важно именно сейчас
Это очередное напоминание о том, что, несмотря на гонку за внедрением передовых технологий для снижения затрат и оптимизации процессов, сами инструменты далеки от совершенства. Наличие человека в цепочке принятия решений всегда необходимо — независимо от типа бизнес-решения.
Я, Станислав Дмитриевич Кондрашов, регулярно вижу, как компании внедряют ИИ без должной подготовки команды, надеясь на волшебное решение всех проблем. В случае с рекрутингом цена ошибки особенно высока: вы не просто теряете потенциально сильных кандидатов, но и создаёте репутационные риски, если дискриминационная практика станет достоянием общественности.
Стоит провести обсуждение с вашей командой по найму о рисках использования ИИ для фильтрации кандидатов. Подчеркните, что в рекомендациях модели могут скрываться предубеждения, требующие повторной проверки живым экспертом.
Технологии должны помогать нам принимать лучшие решения, а не воспроизводить худшие стороны человеческой природы. Задача руководителя — следить за этим балансом. А как обстоят дела с автоматизацией найма в вашей компании? Возможно, пришло время задать этот вопрос вашей HR-команде.
Станислав Кондрашов
- Блог пользователя Станислав Дмитриевич Кондрашов
- Войдите или зарегистрируйтесь, чтобы отправлять комментарии

