M
Math for Impact
@mathforimpact775 подп.
1.8Kпросмотров
25 октября 2025 г.
📷 ФотоScore: 1.9K
Условная максимизация в uplift моделировании TL;DR Позволяет персонализировать принятие решений, выбирая оптимальную стратегию с учётом не только эффекта, но и стоимости воздействия. Почему обсуждается? Обычная uplift модель выбирает вариант с максимальным ожидаемым эффектом. Но в реальных задачах каждое воздействие имеет свою цену или риск. Рассматриваемый подход решает эту проблему: он позволяет находить оптимальное решение при фиксированном уровне затрат. Проблема Нужно персонализировать выбор воздействия так, чтобы максимизировать ожидаемое значение целевой метрики, не превышая средний уровень затрат. Предположения Для каждого клиента известны: – X — набор признаков, – T — какой из вариантов воздействия был оказан, – Y — целевая метрика, – S — затраты на воздействие. Предполагается, что данные получены из эксперимента: вероятность выбора воздействия P(T = t | X) = p(t) не зависит от X. Решение 1. Для набора весов w решаем задачу uplift моделирования с одной целевой метрикой U = Y - w·S (например, как в постах про S-learner или Causal Random Forest). Получаем набор стратегий h(w). 2. Для каждой стратегии h(w) на отложенной выборке оцениваем средние значения целевой метрики Y(w) и затрат S(w) (например, как в посте об оценке качества персонализации). 3. Выбираем такой вес w, при котором оценка S(w) не превышает заданную стоимость C. Соответствующая стратегия h(w) является искомой. Достоинства – При достаточном качестве модели выбор воздействия будет приближаться к оптимальному. – Позволяет строить стратегию с посегментными ограничениями, аналогично задаче Лагранжа. – Метрики, между которыми строится размен, произвольны. Например, если метрика S должна быть не меньше некоторого порога C, следует использовать целевую функцию U = Y + w·S. Ограничения – Требует подбора коэффициента w, который может зависеть и от времени, и от поданной выборки. – Метрики эффекта и затрат должны быть достаточно чувствительными, чтобы на них можно было обучать модели и находить оптимальные размены. – Несмещённые оценки S(w) и Y(w) получаются только при обучении на данных эксперимента. Библиография Kharlamov V. Conditional Optimization in Uplift Modelling // Proceedings of the Fourteenth International Conference “Computer Data Analysis and Modeling: Stochastics and Data Science”. – 2025. – С. 121-124. P.S. Этот подход был разработан на хакатоне по повышению эффективности выдачи кэшбэка. В прошлом месяце на статистической конференции CDAM’25 мы рассказали об этой и других методологиях ASL. На пути от хакатона к проду модель прошла несколько итераций изменений, лучше адаптировавших её к применению в бизнесе. О том, какие фишки и доработки были внесены в модель и методологию, расскажу в следующем посте!
1.8K
просмотров
2735
символов
Нет
эмодзи
Да
медиа

Другие посты @mathforimpact

Все посты канала →