Н
Нейроканал
@neuro_channel10.1K подп.
1.5Kпросмотров
15.2%от подписчиков
23 марта 2026 г.
Score: 1.7K
Топ трендов HuggingFace за неделю TL;DR Новое: Mistral Small 4 — unified MoE на 119B/6.5B, объединяющий Instruct+Reasoning+Devstral. Nemotron Cascade 2 — 30B/3B MoE, золото на IMO и IOI 2025. Leanstral — первый open-source агент для доказательств в Lean 4, бьёт Claude Sonnet при 6,5% стоимости. Qianfan-OCR от Baidu — 5B end-to-end OCR с Layout-as-Thought. Chandra OCR 2 — 90+ языков, 85,9% на olmOCR. Foundation-1 — генерация музыкальных семплов. Держится: Jackrong Claude-Opus-Distilled (27B), HauhauCS Uncensored (35B, 9B), Fish Audio S2 Pro, GLM-OCR, OmniCoder-9B, Qwen3.5-9B, Qwen3.5-35B-A3B, LTX-2.3, Anima. Mistral возвращается — Mistral Small 4 — MoE на 119B/6,5B активных, 128 экспертов, 4 активных на токен. Единая модель вместо трёх: Instruct + Reasoning (Magistral) + Devstral. Мультимодальная (текст+картинки), 256K контекст. Настраиваемый reasoning_effort (none/high) для баланса скорости и точности. Speculative decoding через обученный eagle head. На LiveCodeBench обходит GPT-OSS-120B при 20% меньшем выводе. Apache 2.0. — Leanstral — первый open-source агент для формальной верификации в Lean 4. Та же архитектура (119B/6,5B), заточенная под доказательства. На FLTEval pass@2 набирает 26.3 — бьёт Claude Sonnet 4.6 (23,7) при ~6,5% стоимости. Интеграция с Mistral Vibe CLI и lean-lsp-mcp. Apache 2.0. NVIDIA — reasoning-монстр на 3B — Nemotron Cascade 2 — 30B/3B активных MoE. Контекст 1M, бенчмарки поражают: IMO 2025 — 35 баллов (золото), IOI 2025 — 439,3 (золото), ICPC World Finals — 10/12 задач, AIME 2025 — 92,4 (98,6 с TIR), HMMT Feb25 — 94,6, LiveCodeBench v6 — 87,2, ArenaHard v2 — 83,5 (Qwen3.5-35B-A3B: 65,4). При 3B активных это вне конкуренции. NVIDIA Open License. Война OCR-моделей Три OCR-модели в топе одновременно — явный тренд. — Qianfan-OCR от Baidu — 5B end-to-end OCR. Фишка: Layout-as-Thought — модель через <think> генерирует bounding boxes, типы элементов и порядок чтения перед основным выводом. Vision encoder до 4K. OmniDocBench v1.5 — 93,12 (#1 среди E2E), OCRBench 880, KIE 87,9 (#1, выше Gemini-3.1-Pro и Qwen3-VL-235B). 192 языка. Apache 2.0. — Chandra OCR 2 от Datalab — 5B на базе Qwen3.5. 90+ языков, olmOCR Benchmark 85,9%. На 90-языковом тесте: 72,7% vs 60,8% у Gemini 2.5 Flash. Вывод в Markdown/HTML/JSON. OpenRAIL-M (бесплатно для исследований и стартапов до &#036;2M). — GLM-OCR из прошлого обзора — всё ещё в топе (3.29M загрузок). Community-дистилляции Claude Opus расширяются Тут надо пояснить, что это не совсем формально дистилляции, потому что веса же закрыты, а обучение на выводах (outputs) закрытой модели. — Jackrong выпустил v2 дистилляции на 9B — фокус на «экономном мышлении»: reasoning trace на 22% короче при 25,9% росте эффективности решения задач. 27B-версия из прошлых обзоров всё ещё держится в топ-2. Необычное — Foundation-1 от RoyalCities — 1,2B DiT-модель для генерации музыкальных семплов (лупы, мелодии, аккорды). Fine-tune Stable Audio Open на 4,3к лицензированных семплов. Structured prompts для точного контроля (BPM, тональность, инструмент). ~7с на RTX 3090. Community лицензия. Хорошей недели! 👾 @neuro_channel
1.5K
просмотров
3121
символов
Нет
эмодзи
Нет
медиа

Другие посты @neuro_channel

Все посты канала →