945просмотров
10.1%от подписчиков
13 марта 2026 г.
📷 ФотоScore: 1.0K
✍️ Разговор двух экспертов про ИИ-оценку. Часть 1/2 В американской оценке есть Чарльз Хэндлер — консультант, за которым я слежу, наверное, больше всего. Недавно он со своим коллегой Натаном Мондрагоном основал компанию ProboTalent, которая будет делать ИИ-оценку. К слову, у обоих большой опыт в оценке — Чарльз работал в Берзине, далее основал свою компанию Rocket-Hire, а после успел поработать в одном из лидеров оценочных консалтеров Sova Assessment. А Натан работал в HireVue — сейчас лидере ИИ-оценки в США. Так вот. Чарльз и Натан обсудили ИИ-оценку. С их тезисами я очень согласен, публикую со своими комментариями: 1️⃣ Правила качественной оценки не изменились — мы просто постоянно о них забываем
Хотя с развитием языковых моделей технологии сильно продвинулись вперёд, базовые правила качественной оценки — валидность, релевантность, интерпретируемость и справедливость — остались ровно теми же.
ИИ не получает поблажек в методологии. Скорее наоборот: он поднимает планку требований к строгости, потому что ошибки начинают масштабироваться быстрее.
Это скорее напоминание о том, что ИИ — дополнение к оценке, которое должно соответствовать тем же требованиям, что и классическая оценка. 2️⃣ Ранние технологии найма решали операционные задачи, а не задачи измерения
Речь про ATS, видеоинтервью, чат-боты. Они применялись в HR в первую очередь для автоматизации процесса найма, а не для более глубокого понимания людей. Это наследие до сих пор определяет сегодняшние платформы для оценки — и объясняет, почему многие инструменты кажутся поверхностными.
Для меня это скорее про разные этапы воронки отбора. Наверху действительно балом правит автоматизация. И это нормально. Но чем дальше по воронке и чем дороже персонал, тем более глубокая оценка нам нужна, пусть даже в ИИ-формате. Ненормально, когда инструменты, которые были созданы для верха воронки, начинают применяться на её последних этапах. Да, дешево, но неэффективно. 3️⃣ HireVue был настоящим сдвигом парадигмы — и для этого потребовалась научная смелость
HireVue первым, в середине 2010 годов, отмасштабировал ИИ-оценку на основе видеоинтервью. Натан в разговоре объясняет, что от ученого переход к видео требовал готовности работать с иной оценочной модальностью — изначально неструктурированными данными на видео. Пусть даже последствия такого «шифта» заранее были неизвестны. Короче говоря, инновации в оценке сопровождаются напряжением — между научной строгостью и экспериментом. С одной стороны — банальная мысль: чтобы создать что-то новое, нужно отвергнуть или поставить под сомнение что-то старое. Нужно дизраптить. С другой, кажется, что именно подрывные инновации на научном поприще и позволили HireVue стать номер один в ИИ-оценке, выиграть инвестиций на 97 млн и купить множество конкурентов (как их когда-то скупали SHL и Korn Ferry, но в уже в более классической оценке):
— CodeEval (2012) — оценка технических навыков в практических симуляциях (по коду). — Reschedge (2014) — планирование интервью с кандидатом (планирование, бронь). — MindX (2018) — геймифицированные тесты способностей. — AllyO (2020) — скрининговые чат-боты (буквально по «красным флагам»). — Modern Hire (2023) — главный конкурент, также проводящий ИИ-оценку по видео. — Hireguide (2026, буквально вчера) — голосовые ассистенты для проведения оценки. 4️⃣ ИИ не проводит плохую (или хорошую) оценку сам по себе — он просто масштабирует то, что в него заложено
ИИ не улучшает слабую оценку, как и не ухудшает сильную. Он просто дает на выходе то, что в него заложили. Если данные оценки были «слабыми» (или дискриминационными) — ИИ на них успешно обучится и будет давать невалидные или несправедливые результаты. Для меня это продолжение первого тезиса. Недостаточно гнаться на максимальным предиктом, нужно еще понимать, что именно мы предсказываем и не на мусорных ли данных мы это делаем.