В
Власов⚡️Продразбор
@IgorVlas0v_channel2.0K подп.
780просмотров
39.0%от подписчиков
12 января 2026 г.
Score: 858
В начало поста... А теперь рассмотрим, например, две ML-модели: - подбор скидки для максимизации GMV; - подбор скидки для факта покупки. 🔘 Слайд 8 - Регрессия с доходом. Мы обучаем ML-модель так, чтобы её предсказанная скидка была максимально близка к «идеальной» с точки зрения GMV. Доход используется как вес - более ценные клиенты сильнее влияют на обучение. Под "капотом": Σᵢ yᵢ · (f(Xᵢ) – sᵢ)² → min • i - человек (Света, Миша, Вася …). • sᵢ - скидка, которую мы ему дали. • f(Xᵢ) - скидка, которую модель считает правильной (на основе поведения). • yᵢ - доход от этого человека (сколько денег он реально принёс). Почему мы умножаем на доход yᵢ? Потому что ошибаться на дорогих клиентах "больнее", чем на дешёвых. Примеры:  • Ошиблись со Светой (300 ₽ дохода) - не страшно.  • Ошиблись с Мишей (1000 ₽ дохода) - ощутимее. Поэтому вклад ошибки взвешивается доходом: • чем больше денег приносит клиент,  • тем важнее правильно подобрать ему скидку. ML-модель учится так: 1. Мы показываем ей исторические данные:     • кто этот клиент (Xᵢ — признаки клиента).     • какую скидку дали.    • сколько денег он принёс. 2. Модель:     • пробует предсказывать «правильную» скидку.    • сравнивает её с реальной.    • сильнее "наказывает" себя за ошибки на прибыльных клиентах. 3. Через обучение она учится:     • давать скидки там, где они реально увеличивают доход.     • не давать скидку там, где доход от неё не растёт 🔘 Слайд 9 - Сигмоидная модель порога. Если мы хотим, чтобы скидка влияла не на сумму покупок, а на сам факт покупки, то можно применить сигмоиду (она как раз похожа на ступеньку/тот самый "порог"). Она обучается по т.н. бинарной кросс-энтропии и ищет "порог", при котором клиент начинает покупать. Миша и Света показаны как два пользователя с разными "порогами". Под "капотом": P(покупка) = 1 / (1 + e^(–z)), где z = w·Скидка + b 1. Что такое z  • z - насколько человеку «хочется купить» при данной скидке.  • Если z маленький → человек холодный → вероятность низкая.  • Если z большой → человек горячий → вероятность высокая. 2. Почему «w·скидка»  • w - чувствительность к скидке.  • Высокий w → клиент сильно реагирует на скидку (как Миша).  • Низкий w → нужна большая скидка (Свете: 10% хватило, а Мише - 30%).  • А умножаем, потому что увеличение скидки увеличивает желание купить. 3. Что такое b (смещение). • Это базовая жадность)) / клиента без скидки.  • Если b низкий → клиент покупает только со скидкой.  • Если b высокий → может купить и без скидки. 4. Почему формула делит на 1 + e^(–z). • Когда z маленький → знаменатель большой → вероятность покупки ≈ 0.  • Когда z большой → знаменатель маленький → вероятность покупки ≈ 1.  • Так строится S-образная функция. 5. Что означает буква e? • Это просто математическая константа (≈ 2.718)) • Нужна для кривой нужной нам формы: формы "ступеньки". 6. Почему «минус z». • Чтобы при маленькой скидке вероятность была низкой.  • А при высокой скидке - высокой. Это классическая ML-модель - логистическая регрессия. Как она учится:  1. Мы знаем, покупали ли Света и Миша при каждой скидке (0/1).  2. Модель перебирает w и b.  3. Для каждого набора она предсказывает вероятность покупки.  4. Сравнивает предсказание с реальными покупками.  5. Меняет w и b так, чтобы ошибка была минимальной (через бинарную кросс-энтропию). В итоге, модель находит:  • для Светы порог = 10%  • для Миши порог = 30% 🔜 В следующих постах разберём остальные #Кейсы@IgorVlas0v_channel 🔜 И другие темы.
780
просмотров
3723
символов
Нет
эмодзи
Нет
медиа

Другие посты @IgorVlas0v_channel

Все посты канала →
В начало поста... А теперь рассмотрим, например, две ML-моде — @IgorVlas0v_channel | PostSniper