Д
Диджитал Джигит
@digital_djigit533 подп.
464просмотров
87.1%от подписчиков
24 декабря 2025 г.
Score: 510
Когда ИИ не нанимает, а отбраковывает людей. Фэйлы применения искусственного интеллекта в HR Ну что же. Пришло время рассказать и обратной стороне медали, которая не вошла в основной гайд. Где же ИИ успел накосячить? За последние пару лет накопилось немало кейсов, где алгоритмы в найме приносили больше вреда, чем пользы. Вот они: 👽 Amazon пришлось тихо «похоронить» свой алгоритм подбора, когда выяснилось, что он системно занижает оценку кандидаток‑женщин, потому что учился на исторических данных, где доминировали мужчины. Алгоритм просто выучил: «мужчина — нормально, женщина — так себе».​ 👽 Против Workday подали коллективный иск: кандидаты утверждают, что их AI‑скрининг массово отсеивал людей по возрасту, расе и инвалидности ещё до того, как резюме увидел человек. Суд принял часть требований к рассмотрению — то есть тема «алгоритм дискриминирует» уже не только в твиттер‑тредах, но и в юридической плоскости. ​ 👽 Отдельная боль — видеоинтервью. Истории, когда глухие кандидаты или люди с нестандартной речью просто «не существуют» для системы, потому что она завязана на голос и акценты. Или когда AI низко оценивает «не тот» взгляд, паузы и жесты, и человек теряет шанс на оффер не из‑за компетенций, а из‑за того, как его прочитал алгоритм. ​ 👽 Плюс исследования показывают: большинство кандидатов в принципе не доверяет AI‑отбору. Есть ощущение лотереи: «если резюме не идеально заточено под фильтры, меня даже не увидят». И это не про «старые кадры боятся технологий», а про реально кривую реализацию. ​ Почему это важно нам, а не только американским юристам? Потому что ровно те же подходы и движки (или их локальные аналоги) приходят и к нам. И если бездумно «ставить робота» в самое узкое горлышко процесса — на первый фильтр — можно очень быстро: — отрезать себе кусок сильных кандидатов; — получить репутацию токсичного работодателя; — в перспективе — поймать ещё и юридические риски (если регуляторика подтянется). ​ Мой личный вывод такой: ИИ в HR — это инструмент масштабирования. Если процессы и данные ок — он масштабирует эффективность. Если внутри уже есть фигня, дискриминация и бардак — он масштабирует это. ​ Поэтому у здравого HR‑подхода к ИИ должно быть три базовых слоя защиты: ❗️Human‑in‑the‑loop — финальное решение всё равно за человеком, а не за моделью. ​ ❗️Аудит и прозрачность — понимать, на каких данных и признаках учится и решает алгоритм. ❗️Этика и доступность — не делать инструменты, которые сразу исключают людей с инвалидностью, нестандартной речью, нетипичными траекториями. ​ Думаю, что надо обновить гайд и добавить раздел «анти‑кейсов» — с разбором, где компании обожглись, и чек‑листом «как не повторить их ошибки». Если вы в HR или просто боль за нормальный найм — напишите, скину черновик, когда допилю. А если еще не читали гайд, то скачать можно через бота @Djigit4HRbot
464
просмотров
2842
символов
Нет
эмодзи
Нет
медиа

Другие посты @digital_djigit

Все посты канала →
Когда ИИ не нанимает, а отбраковывает людей. Фэйлы применени — @digital_djigit | PostSniper