ШАД выложил в открытый доступ учебник по машинному обучению (что приятно, русскоязычный). Пока написано только несколько глав, но базовые алгоритмы и метрики ML уже неплохо покрыты. По стилю похоже на хорошо отформатированную лекцию, с не очень сложными формулами и весьма наглядными картинками. Сами авторы анонсируют его так: "Онлайн-учебник по машинному обучению от ШАД — для тех, кто не боится математики и хочет разобраться в технологиях ML. Вы изучите классическую теорию и тонкости реализации ...
Матчасть
Высшая математика в бизнесе и жизни vk.com/mat.chast botcamp.timepad.ru www.youtube.com/channel/UCoO8ApMu4QM4KQ8oGRCgOHQ Чат: t.me/matchast_chat
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 20Со следующей недели коллеги из MathsHub будут проводить открытый и бесплатный месячный интенсив по математике и питону. Он подойдёт тем, кто хочет активно приступить к ML, но боится, что технических навыков не хватит. Будет обзор инструментов python для работы с данными, и вспоминалочка базового матана/линейной алгебры/теорвера. Подробности: https://maths-h.com/ru/intensive-mathpython
Открытое письмо российских айтишников против войны в Украине. https://docs.google.com/forms/d/e/1FAIpQLScEsxsoXl_7R4aD5F8-B7fCCBVwU_BXBaOVJsKszbFyRHRkkw/viewform
Представляю бесплатный интенсив из 20 занятий по питону и математике для начинающих. Организует MathsHub, с которым я много чего преподавал последние два года, а проводит Аня Чувилина, моя бывшая коллега по Yandex Data Factory. Подробности: https://maths-h.com/ru/python-math-aug22
Ищем в нашу команду Mathshub талантливых инструкторов в сфере machine learning! Кто мы? Mathshub - международная школа программирования и анализа данных. Создатели школы - практики и предприниматели, построившие карьеру в разработке и управлении продуктов с машинным обучением в Яндекс, Mail.Ru Group, Alfabank, Ozon, МВидео, Aitarget с опытом преподавания в ВШЭ, МФТИ, Y-DATA. Какие требования к кандидатам? - Отличное знание языка Python - Опыт преподавания более 3х лет(обсуждаемо) - текущая позиц...
Слева: линейная, изотоническая, и сглаженная изотоническая регрессии. Справа: в зависимости от степени регуляризации мы можем как угодно интерполировать между линейной и изотонической регрессией.
Сегодня выкатилась scikit-learn==1.0.0, и в ней - квантильная линейная регрессия Когда я рассказываю новичкам про регрессию, меня обычно спрашивают, почему мы минимизируем сумму квадратов ошибок, а не их модулей? Я отвечаю "так принято" и говорю что-то про дифференцируемость всюду и про то, что одна большая ошибка критичнее нескольких маленьких. Но аргумент с ошибками применим не всегда (особенно если в данных есть выбросы), и есть куча методов оптимизации, которые плевать хотели на производную ...
Всем привет! В марте мы запускаем новый поток курса по машинному обучению. Курс, как и раньше, состоит из трёх компонент: 1) Общеобразовательная: по две лекции и два семинара в неделю в течение двух месяцев; будем погружаться в теорию и практику ML. 2) Проектная: каждый студент работает над своим проектом и регулярно консультируется с нами, чтобы на выходе у каждого был свой работающий прототип какого-нибудь небесполезного приложения. 3) Нетворкинговая: будут встречи с гостями из индустрии и мир...
Недавно мне понадобилось для калибровки регрессионных моделей обучить формулу y=f(X), которая хорошо бы приближала заданное облако точек (возможно, нелинейно) и была бы монотонно возрастающая и по возможности гладкая. В scikit-learn нашлись три примерно подходящие модели: 1) Старая добрая LinearRegression: монотонная и максимально гладкая, но неспособная описывать нелинейности. 2) IsotonicRegression: монотонная и умеющая в произвольные нелинейности, но очень негладкая и склонная к переобучению. ...