780просмотров
39.0%от подписчиков
12 января 2026 г.
Score: 858
В начало поста... А теперь рассмотрим, например, две ML-модели: - подбор скидки для максимизации GMV;
- подбор скидки для факта покупки. 🔘 Слайд 8 - Регрессия с доходом. Мы обучаем ML-модель так, чтобы её предсказанная скидка была максимально близка к «идеальной» с точки зрения GMV. Доход используется как вес - более ценные клиенты сильнее влияют на обучение. Под "капотом":
Σᵢ yᵢ · (f(Xᵢ) – sᵢ)² → min • i - человек (Света, Миша, Вася …).
• sᵢ - скидка, которую мы ему дали.
• f(Xᵢ) - скидка, которую модель считает правильной (на основе поведения).
• yᵢ - доход от этого человека (сколько денег он реально принёс). Почему мы умножаем на доход yᵢ?
Потому что ошибаться на дорогих клиентах "больнее", чем на дешёвых. Примеры: • Ошиблись со Светой (300 ₽ дохода) - не страшно. • Ошиблись с Мишей (1000 ₽ дохода) - ощутимее. Поэтому вклад ошибки взвешивается доходом:
• чем больше денег приносит клиент, • тем важнее правильно подобрать ему скидку. ML-модель учится так: 1. Мы показываем ей исторические данные: • кто этот клиент (Xᵢ — признаки клиента). • какую скидку дали. • сколько денег он принёс. 2. Модель: • пробует предсказывать «правильную» скидку.
• сравнивает её с реальной.
• сильнее "наказывает" себя за ошибки на прибыльных клиентах. 3. Через обучение она учится: • давать скидки там, где они реально увеличивают доход. • не давать скидку там, где доход от неё не растёт 🔘 Слайд 9 - Сигмоидная модель порога. Если мы хотим, чтобы скидка влияла не на сумму покупок, а на сам факт покупки, то можно применить сигмоиду (она как раз похожа на ступеньку/тот самый "порог"). Она обучается по т.н. бинарной кросс-энтропии и ищет "порог", при котором клиент начинает покупать. Миша и Света показаны как два пользователя с разными "порогами". Под "капотом":
P(покупка) = 1 / (1 + e^(–z)), где z = w·Скидка + b 1. Что такое z • z - насколько человеку «хочется купить» при данной скидке. • Если z маленький → человек холодный → вероятность низкая. • Если z большой → человек горячий → вероятность высокая. 2. Почему «w·скидка» • w - чувствительность к скидке. • Высокий w → клиент сильно реагирует на скидку (как Миша). • Низкий w → нужна большая скидка (Свете: 10% хватило, а Мише - 30%). • А умножаем, потому что увеличение скидки увеличивает желание купить. 3. Что такое b (смещение).
• Это базовая жадность)) / клиента без скидки. • Если b низкий → клиент покупает только со скидкой. • Если b высокий → может купить и без скидки. 4. Почему формула делит на 1 + e^(–z).
• Когда z маленький → знаменатель большой → вероятность покупки ≈ 0. • Когда z большой → знаменатель маленький → вероятность покупки ≈ 1. • Так строится S-образная функция. 5. Что означает буква e?
• Это просто математическая константа (≈ 2.718))
• Нужна для кривой нужной нам формы: формы "ступеньки". 6. Почему «минус z».
• Чтобы при маленькой скидке вероятность была низкой. • А при высокой скидке - высокой. Это классическая ML-модель - логистическая регрессия. Как она учится: 1. Мы знаем, покупали ли Света и Миша при каждой скидке (0/1). 2. Модель перебирает w и b. 3. Для каждого набора она предсказывает вероятность покупки. 4. Сравнивает предсказание с реальными покупками. 5. Меняет w и b так, чтобы ошибка была минимальной (через бинарную кросс-энтропию). В итоге, модель находит: • для Светы порог = 10% • для Миши порог = 30% 🔜 В следующих постах разберём остальные #Кейсы@IgorVlas0v_channel 🔜 И другие темы.