5.0Kпросмотров
63.8%от подписчиков
23 января 2026 г.
Score: 5.5K
Сбер (классический ML) — что было
Знакомство
- Как всегда знакомство.
- Корень многочлена через градиентный спуск
Найти корень многочлена методом градиентного спуска (именно корень, не минимум).
Правильная идея: минимизировать квадрат многочлена. На этом я сильно затупил и пришлось ждать подсказок интервьюера.
- Вопросы про градиентный спуск
- как выбирать lr
- как выбирать стартовые точки
- gradient clipping
- всегда ли сходится
- стратегии изменения lr
- варианты оптимизаторов: momentum, adam и т.д.
=> Я немного поплыл, потому что ожидал такое скорее на собеседовании по DL. ROC-AUC
Что такое ROC-AUC: как считать, когда не подходит.
ROC-AUC руками
Упорядоченные по вероятности классы: 100к нулей, потом 10 единичек, потом 1к нулей.
Ответ: 1/101. Градиентный бустинг
Рассказать про градиентный бустинг.
В ходе затронули кучу вопросов, включая bias-variance decomposition (я даже формульно расписывал, почему это хорошо работает для случайного леса). Из интересного:
что больше склонно к переобучению: лес или бустинг (и что такое переобучение)
из чего можно/нельзя делать бустинг: kNN, нейронки, линейные модели Фидбек от знакомого
Важно пытаться понять, куда ведёт интервьюер и какой ответ он ожидает. Не мудрить. Например, на вопрос “почему не стоит строить бустинг на нейронках” достаточно сказать: базовая модель слишком сложная, высокий variance. Я же начал уходить в рассуждения про отображения признакового пространства. Следующий пост будет про то, как мой коллега с ФКН-а попал в ML, будучи студентом ПИ!😮