5.0Kпросмотров
63.8%от подписчиков
23 января 2026 г.
Score: 5.5K
Сбер (классический ML) — что было Знакомство - Как всегда знакомство. - Корень многочлена через градиентный спуск Найти корень многочлена методом градиентного спуска (именно корень, не минимум). Правильная идея: минимизировать квадрат многочлена. На этом я сильно затупил и пришлось ждать подсказок интервьюера. - Вопросы про градиентный спуск - как выбирать lr - как выбирать стартовые точки - gradient clipping - всегда ли сходится - стратегии изменения lr - варианты оптимизаторов: momentum, adam и т.д. => Я немного поплыл, потому что ожидал такое скорее на собеседовании по DL. ROC-AUC Что такое ROC-AUC: как считать, когда не подходит. ROC-AUC руками Упорядоченные по вероятности классы: 100к нулей, потом 10 единичек, потом 1к нулей. Ответ: 1/101. Градиентный бустинг Рассказать про градиентный бустинг. В ходе затронули кучу вопросов, включая bias-variance decomposition (я даже формульно расписывал, почему это хорошо работает для случайного леса). Из интересного: что больше склонно к переобучению: лес или бустинг (и что такое переобучение) из чего можно/нельзя делать бустинг: kNN, нейронки, линейные модели Фидбек от знакомого Важно пытаться понять, куда ведёт интервьюер и какой ответ он ожидает. Не мудрить. Например, на вопрос “почему не стоит строить бустинг на нейронках” достаточно сказать: базовая модель слишком сложная, высокий variance. Я же начал уходить в рассуждения про отображения признакового пространства. Следующий пост будет про то, как мой коллега с ФКН-а попал в ML, будучи студентом ПИ!😮
5.0K
просмотров
1527
символов
Да
эмодзи
Нет
медиа

Другие посты @zadachi_ds

Все посты канала →
Сбер (классический ML) — что было Знакомство - Как всегда зн — @zadachi_ds | PostSniper