5.7Kпросмотров
72.6%от подписчиков
28 января 2026 г.
Score: 6.3K
- yandex cup (llm + rag, полезно поделать построить полноценный пайплайн и поэксперементировать с реализацией RAG)
- Дальше дошел до собесов с командами в яндексе и готовился по отдельности к некоторым собесам, если понимал, что есть пробел в определенной области и надо бы зашарить как для собеса конкретного, так и в целом для развития. Смотришь, что пишет команда в своем описании и, понимаешь, что от тебя примерно ждут и точечно подшариваешь за какие-то конкретные технологии, разбираешь основные архитектуры и пишешь руками какие-то вещи. Например, команда пишет, что занимается RL для автономного транспорта, спрашиваешь гпт какие есть модели, какие данные, какие методы обучения. Понял, допустим, что PPO - центральная вещь в RL, посмотрел лекцию по теме и задал гпт миллион вопросов, чтобы в голове все уложилось, пошел ручками с нуля написал PPO для какой-то базовой задачи (посадка лунохода в gymnasium например) Можно еще программу некоторых курсов вставить, но кажется и так много уже
АиСД-1
- Анализ алгоритмов
1. Асимптотика, символы Ландау
2. Корректность, инварианты
3. Ожидаемая сложность
4. Рекуррентные соотношения - Структуры данных
1. Концепция контейнера
2. Список, стек, очередь
3. Бинарные деревья
4. Очередь с приоритетами - Сортировка
1. Порядковая статистика
2. Нелинейные алгоритмы
3. Линейные алгоритмы - Деревья поиска
1. AVL-дерево, баланс по высоте
2. Красно-черное дерево
3. Splay-дерево
4. B-дерево - ОС
1. Введение в Linux и Bash
2. Bash-скрипты 3. Процессы в UNIX/Linux
4. Работа с файлами
5. Каналы
6. Сигналы
7. Разделяемая память (System V) 8. Разделяемая память (POSIX)
9. Семафоры POSIX
10. Сетевое взаимодействие (TCP/IP) Нейронные сети в машинном обучении
1. Бэкпроп, оптимизаторы, PyTorch
2. Инициализация, регуляризация, best practices
3. Conv layers, Pooling, Архитектуры: vgg, resnet, mobile net
4. Перенос обучения. Pruning, quantization. Дистилляция знаний. trt, onnx. Интерпретация моделей, Shapley
5. Dense prediction, UNet
6. Object detection, метрики
7. Word Embeddings (TF-IDF, word2vec), Tokenizers, Lemma, Stop words, Rnn(23.10)
8. Attention, Transformer, Translator
9. BERT, adapters, LoRa, QLoRa, NER
10. LLM or NLP part 2
11. GenAI: GAN, VAE
12. ViT, DETR, CLIP В целом, как видно, во многом твой трек зависит от тебя самого и твоя текущая программа не приговор. Так или иначе, я считаю, например, что любой CS курс полезен в ML. Админ, в свое время изучавший тонкости работы ОС/АрхЭвм сейчас питает страсть к GPU оптимизациям, а тут уже все тесно связано очень. Следующий пост будет про то, как я прошёлся по воронке отбора в известную HFT компанию на ML RESEARCHER.