Якобиан — это то, как на самом деле «двигаются» многомерные системы. Вы больше не работаете с одной переменной — вы работаете с преобразованиями: входной вектор → выходной вектор Якобиан показывает, как каждое входное измерение влияет на каждое выходное. Что это такое: → матрица частных производных → каждая строка = одна выходная функция → каждый столбец = одна входная переменная J(i,j) = ∂fᵢ / ∂xⱼ Почему это важно: → это локальная линейная аппроксимация нелинейной системы → показывает, как расп...
Data Portal | DS & ML
Всё самое интересное из мира Data Science и машинного обучения Связь: @devmangx
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 208 специализированных типов AI-моделей LLM → генерация текста LCM → семантическое рассуждение LAM → агенты, ориентированные на выполнение действий MoE → маршрутизация по экспертам VLM → зрение + язык SLM → лёгкие модели для edge-устройств MLM → обучение с маскированием токенов SAM → сегментация изображений 👉 @DataSciencegx
Что если можно было бы написать логику для DataFrame один раз и запускать её на любой SQL-базе? Многие пайплайны обработки данных начинаются с pandas для быстрого прототипирования, а в продакшене уже работают на базах вроде PostgreSQL или BigQuery. Переход от прототипа к продакшену обычно означает переписывание той же логики трансформаций на SQL. Это занимает время и легко приводит к ошибкам. Ibis решает эту проблему: вы один раз описываете трансформации на Python, а он автоматически компилирует...
GLM-OCR — модель на 0.9B параметров, которая обгоняет Gemini в OCR-бенчмарках 💀 Это vision-language модель на 0.9B параметров. Поддерживает разрешение до 8K, более 8 языков и имеет встроенные режимы распознавания текста, LaTeX и таблиц. Демо: http://github.com/zai-org/GLM-OCR 👉 @DataSciencegx
Хочешь разобраться, какими способами обучают LLM? Обучение больших языковых моделей (LLM) основано на разных подходах, которые помогают моделям понимать и генерировать текст. Каждый метод по-своему формирует процесс обучения — от предсказания следующего слова до классификации целых предложений или разметки сущностей. Вот 4 распространённых способа обучения LLM простым языком 👇 1. Causal Language Modeling Предсказывает следующее слово в последовательности на основе предыдущих. Помогает модели ос...
полный архитектурный разбор трансформеров с интуитивными визуализациями. https://vizuaranewsletter.com/p/the-transformers 👉 @DataSciencegx
16 лучших GitHub-репозиториев для создания AI-инженерных проектов! Open-source экосистема AI сейчас насчитывает более 4,3 млн репозиториев. Каждый месяц появляются новые проекты, которые быстро набирают популярность, и инструменты, с которыми работают разработчики сегодня, уже совсем не похожи на те, что были год назад. Я собрал визуализацию 16 репозиториев, которые прямо сейчас формируют современный инструментарий AI-разработчика. Цель — покрыть ключевые слои стека: 1. OpenClaw ↳ Персональный A...
KV-кэширование в LLM, простое объяснение Вы, должно быть, замечали: каждый раз, когда используете ChatGPT или Claude, первый токен появляется заметно дольше. А затем остальные начинают стримиться почти мгновенно. Под капотом это осознанное инженерное решение, называемое KV-кэшированием (key-value caching), и его цель — ускорить инференс LLM. Давайте разберёмся, как это работает — начиная с базовых принципов. 👉 @DataSciencegx
Как построить ОС для вашего AI-воркфорса? Взгляд с первых принципов: почему для управления флотом AI-агентов нужен уровень операционной системы, а не просто более хороший фреймворк — и что этот уровень должен делать. Мы потратили два года, чтобы действительно хорошо научиться строить AI-агентов. У нас есть фреймворки, конструкторы воркфлоу, drag-and-drop канвасы, Python-библиотеки, оркестраторы мультиагентных систем. Инструменты стали как никогда доступными. И всё же большинство компаний, внедря...
Этот робот-манипулятор = ваша AI-модель. Одно числовое значение в математике определяет, будет ли она обучаться или полностью «сломается». Это градиентный спуск — базовая математическая основа всего AI, которым вы пользуетесь в повседневной жизни. 👉 @DataSciencegx