M
Math for Impact
@mathforimpact775 подп.
1.6Kпросмотров
1 сентября 2025 г.
Score: 1.8K
Uplift моделирование: S-learner TL;DR Позволяет персонализировать принятие решений, предсказывая эффект от каждого варианта решения. Особенно полезен, если вариантов много. Почему обсуждается? Этот пост открывает серию разборов, которые в конце будут объединены в оригинальную методологию управления бюджетом с помощью ML. Начнём с базового подхода, на котором строится стратегия персонализации. Проблема Нужно персонализировать выбор воздействия для максимизации целевой метрики. Предположения Для каждого клиента известны: – X - набор признаков, – T - какой из вариантов воздействия был оказан, T из {0, …, K}, – Y - каков был результат (метрика). При этом все варианты воздействий хотя бы иногда встречаются для любых признаков. То есть P(T = t | X) > 0 при всех X и t из {0, …, K}. Решение Обучение: 1. Собираем обучающую выборку (X(i), T(i), Y(i)), где i - номер клиента. 2. Обучаем регрессионную ML модель f(X(i), T(i)), предсказывающую метрику Y(i). Применение: 1. Для клиента определяем вектор признаков x. 2. Вычисляем предсказания y(t) = f(x, t) для всех t из {0, …, K}. 3. Выбираем h(x) таким, чтобы y(h(x)) = max(y(0), …, y(K)). 4. Назначаем клиенту воздействие h(x). Полученная стратегия h - это результат uplift-модели. Достоинства – При достаточном качестве модели выбор воздействия будет приближаться к оптимальному. – Если в качестве модели выбрать дерево решений, можно интерпретировать стратегию в виде понятных правил. – В случае A/B-теста можно выделить подгруппы, где uplift-модель рекомендует разные воздействия, и проверить, что для одних людей лучше контроль, а для других - тест. – S-learner позволяет использовать сложные воздействия, в том числе непрерывные и текстовые. Ограничения – Модель может не улавливать слабое различие между воздействиями, так как архитектура S-learner не заставляет модель явно учитывать эффект воздействия. – Подход не учитывает изменения в отклике клиента на повторные воздействия, поэтому стратегия uplift модели при многократном применении может быть не оптимальна. – Для uplift модели важна консистентность данных по времени. Если t = 0 применялся на полгода раньше, чем t = 1, модель может спутать эффект времени с эффектом воздействия. Библиография Основной гайд: Python Causality Handbook: Meta Learners. Обзор для бинарного воздействия: Gutierrez P., Gérardy J. Y. Causal inference and uplift modelling: A review of the literature //International conference on predictive applications and APIs. – PMLR, 2017. – С. 1-13. На русском: Туториал по uplift моделированию.
1.6K
просмотров
2541
символов
Нет
эмодзи
Нет
медиа

Другие посты @mathforimpact

Все посты канала →
Uplift моделирование: S-learner TL;DR Позволяет персонализир — @mathforimpact | PostSniper