RRuslan Senatorov | Reverse engineering Data Science

Ruslan Senatorov | Reverse engineering Data Science

@RuslanSenatorov📚 Образование🇷🇺 Русский📅 март 2026 г.

Написать в личные сообщения @SenatorovAI Школа DATA SCIENCE для любого уровня https://senatorovai.com Курсы t.me/RuslanSenatorov/2463 Преподаватель, Руководитель школы, автор ML-курсов, ML-Исследователь, Популяризатор Математики, экс-developer

📊 Полная статистика📝 Все посты
##stepikfee#machinelearning#optimization#ladloss#subgradientdescent#python#datascience#ai
3.6K
Подписчики
1.0K
Ср. охват
27.7%
Вовлечённость
19
Постов
~0.8
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

19 из 19
RRuslanSenatorov
RuslanSenatorov
10 мар., 08:15

Я начал восстанавливать форму! Подписывайтесь на мой лайв канал https://t.me/SenatorovLive/701

👁 1.4K
RRuslanSenatorov
RuslanSenatorov
7 мар., 22:36

#stepikfee Курс: Solver: L-BFGS-B. 778. Quasi-Newton. MSE. Data Science. Python. Реверс-Инжиниринг Data Science В курсе: 46 уроков 4.5 часа видео 400+ заданий Этот курс - лучший способ начать С НУЛЯ и стать специалистом по Машинному Обучению в Python и МАТЕМАТИКЕ! ОСОБЕННОСТИ КУРСА: ⏺️Разбор коммерческого кода действующих проектов по Data Science с сайта kaggle.com ⏺️Способность понимать L-BFGS-B в разделе "Методы второго порядка" в учебнике от Школы Анализа Данных(ШАД) Яндекс education.yandex.r...

👁 1.3K🎬 video
RRuslanSenatorov
RuslanSenatorov
9 мар., 07:07

08.03.2026 — произошло историческое событие в Data Science! Я стал первым в мире человеком, который создал серию образовательных курсов, посвящённых солверам для выпуклой гладкой оптимизации (MSE). Где последовательно разбираются математические и алгоритмические основы оптимизации, которые лежат в основе современного Data Science и Machine Learning. В серии курсов подробно рассматриваются: • Normal Equation Solver • SVD Solver • QR Decomposition Solver • Cholesky Solver • Gradient Descent • CG S...

👁 1.3K📷 photo
RRuslanSenatorov
RuslanSenatorov
9 мар., 11:06

Что выбрать? 🎓 Бакалавриат на 4 года или 🚀 школа Data Science SENATOROVAI на 2 года Мы живём в мире, где технологии меняются каждые 2–3 года. Если обучение занимает 4–6 лет, есть риск, что часть знаний уже устареет к моменту выпуска. Теперь главный вопрос: зачем ждать 4 года, если можно войти в профессию быстрее? В классическом университете: • программы обновляются медленно • много теории без практики • мало реальных проектов • выход на рынок труда только через 4 года В школе Data Science SENA...

👁 1.3K📷 photo
RRuslanSenatorov
RuslanSenatorov
20 мар., 13:55

Портфолио Data Scientist не должно быть набором случайных ноутбуков. В 2026 году для трудоустройства сильнее всего работают не “проекты ради проектов”, а репозитории, в которых видно: - постановку задачи - baseline - работу с данными - честную валидацию - понятный README - логику решения от начала до конца В новой статье я собрал, какие пет-проекты действительно усиливают GitHub, какие кейсы выглядят слабо и как оформить портфолио так, чтобы оно помогало получить работу, а не просто заполняло пр...

👁 1.3K📷 photo
RRuslanSenatorov
RuslanSenatorov
11 мар., 18:12

Если Яндекс ШАД это сложно, то он бы назывался SenatorovAI. Ютуб | Школа Data Science | Live

👁 1.2K📷 photo
RRuslanSenatorov
RuslanSenatorov
7 мар., 11:06

🎉 Историческое событие! Теперь у меня есть организация на Kaggle. Это важный шаг для развития моей школы SenatorovAI, совместных проектов и соревнований по Data Science и машинному обучению. В организации будут: — совместные проекты — команды для Kaggle-соревнований — датасеты и ноутбуки — разборы задач по ML и Python Приглашаю всех вступать 👇 (особенно студентов и тех, кто изучает Data Science) 🔗 Ссылка для вступления: https://kaggle.com/organizations/senatorovai/invite/54c2da43ecd646fa95ca4...

👁 1.2K📷 photo
RRuslanSenatorov
RuslanSenatorov
18 мар., 08:27

Subgradient Descent и LAD Loss: Как это работает? Привет, друзья! Сегодня поговорим про интересный метод оптимизации - Subgradient Descent (Метод субградиента) и его применение в контексте LAD Loss (Least Absolute Deviations Loss). Что такое LAD Loss? LAD Loss - это функция потерь, которая измеряет среднюю абсолютную разницу между предсказанными и фактическими значениями. В отличие от MSE (Mean Squared Error), который использует квадраты разностей, LAD Loss более устойчив к выбросам. Формула LAD...

👁 1.1K📷 photo
RRuslanSenatorov
RuslanSenatorov
24 мар., 15:44

Школа SenatorovAI запустила учебный Kaggle competition для новичков с нуля! SenatorovAI Boston Housing Regression — это лучшее начало для новичков, которые хотят впервые зайти в Kaggle competitions и не потеряться в интерфейсе, файлах, сабмитах и лидерборде. Почему это хороший старт: - задача понятная и классическая: регрессия по табличным данным; - можно спокойно разобраться, как устроены train.csv, test.csv, baseline notebook и submission.csv; - видно весь путь целиком: данные → модель → submi...

👁 1.1K📷 photo

Типы хуков

Нейтральный12 | 924 просм.
История3 | 1.0K просм.
Вопрос2 | 1.2K просм.
Статистика2 | 1.3K просм.

Длина постов

Очень длинные (1000+)9 | 961 просм.
Длинные (500-1000)4 | 1.1K просм.
Короткие (<200)4 | 1.2K просм.
Средние (200-500)2 | 602 просм.

Влияние эмодзи

1.3K
С эмодзи (4)
928
Без эмодзи (15)
+39.3% охвата

Типы контента

📝
1
text
1.4K просм.
🎬
2
video
1.3K просм.
📷
16
photo
947 просм.
Ruslan Senatorov | Reverse engineering Data Science (@RuslanSenatorov) — Telegram-канал | PostSniper