5.7Kпросмотров
72.6%от подписчиков
28 января 2026 г.
Score: 6.3K
- yandex cup (llm + rag, полезно поделать построить полноценный пайплайн и поэксперементировать с реализацией RAG) - Дальше дошел до собесов с командами в яндексе и готовился по отдельности к некоторым собесам, если понимал, что есть пробел в определенной области и надо бы зашарить как для собеса конкретного, так и в целом для развития. Смотришь, что пишет команда в своем описании и, понимаешь, что от тебя примерно ждут и точечно подшариваешь за какие-то конкретные технологии, разбираешь основные архитектуры и пишешь руками какие-то вещи. Например, команда пишет, что занимается RL для автономного транспорта, спрашиваешь гпт какие есть модели, какие данные, какие методы обучения. Понял, допустим, что PPO - центральная вещь в RL, посмотрел лекцию по теме и задал гпт миллион вопросов, чтобы в голове все уложилось, пошел ручками с нуля написал PPO для какой-то базовой задачи (посадка лунохода в gymnasium например) Можно еще программу некоторых курсов вставить, но кажется и так много уже АиСД-1 - Анализ алгоритмов 1. Асимптотика, символы Ландау 2. Корректность, инварианты 3. Ожидаемая сложность 4. Рекуррентные соотношения - Структуры данных 1. Концепция контейнера 2. Список, стек, очередь 3. Бинарные деревья 4. Очередь с приоритетами - Сортировка 1. Порядковая статистика 2. Нелинейные алгоритмы 3. Линейные алгоритмы - Деревья поиска 1. AVL-дерево, баланс по высоте 2. Красно-черное дерево 3. Splay-дерево 4. B-дерево - ОС 1. Введение в Linux и Bash 2. Bash-скрипты  3. Процессы в UNIX/Linux 4. Работа с файлами 5. Каналы 6. Сигналы 7. Разделяемая память (System V)        8. Разделяемая память (POSIX) 9. Семафоры POSIX 10. Сетевое взаимодействие (TCP/IP) Нейронные сети в машинном обучении 1. Бэкпроп, оптимизаторы, PyTorch 2. Инициализация, регуляризация, best practices 3. Conv layers, Pooling, Архитектуры: vgg, resnet, mobile net 4. Перенос обучения. Pruning, quantization. Дистилляция знаний. trt, onnx. Интерпретация моделей, Shapley 5. Dense prediction, UNet 6. Object detection, метрики 7. Word Embeddings (TF-IDF, word2vec), Tokenizers, Lemma, Stop words, Rnn(23.10) 8. Attention, Transformer, Translator 9. BERT, adapters, LoRa, QLoRa, NER 10. LLM or NLP part 2 11. GenAI: GAN, VAE 12. ViT, DETR, CLIP В целом, как видно, во многом твой трек зависит от тебя самого и твоя текущая программа не приговор. Так или иначе, я считаю, например, что любой CS курс полезен в ML. Админ, в свое время изучавший тонкости работы ОС/АрхЭвм сейчас питает страсть к GPU оптимизациям, а тут уже все тесно связано очень. Следующий пост будет про то, как я прошёлся по воронке отбора в известную HFT компанию на ML RESEARCHER.
5.7K
просмотров
2688
символов
Нет
эмодзи
Нет
медиа

Другие посты @zadachi_ds

Все посты канала →
- yandex cup (llm + rag, полезно поделать построить полноцен — @zadachi_ds | PostSniper