565просмотров
20 февраля 2026 г.
📷 ФотоScore: 622
Про SLM почти никто не говорит. И зря. 👀 Все обсуждают GPT-5, Claude, Gemini. Гонка за самой большой моделью. Кто умнее, кто дороже, кто мощнее. А тем временем тихо происходит другое. ─ Цифра, которую все пропустили В 2022 году, чтобы набрать 60% на стандартном тесте MMLU, нужна была модель на 540 миллиардов параметров. В 2024 году Microsoft Phi-3-mini сделала то же самое при 3,8B — в 142 раза меньше за два года. MIT Technology Review включил SLM в топ-10 прорывных технологий 2025 года. Исследователи NVIDIA написали, что SLM — это «будущее агентного ИИ». Никто не заметил. Потому что нет хайпа. ─ Почему про них молчат ❓ Потому что SLM — неудобная история для рынка. Нет смысла платить $20/месяц за подписку, если 7B модель на твоём ноутбуке закрывает 90% задач. Нет смысла использовать ChatGPT API за $20 за миллион токенов, если self-hosted SLM стоит $0,01–0,05 — разница в 100–1000 раз. 77% корпоративных пользователей открытых моделей выбирают версии ≤13B параметров. Phi-4-reasoning-plus (14B) обошёл DeepSeek-R1 (671B) на математическом бенчмарке. Модель в 48 раз меньше — результат лучше. ─ Почему это важно для разработчиков ❓ Дообучить SLM под свою задачу стоит не $50 млн, как frontier-модель, а несколько сотен долларов на потребительском железе — благодаря QLoRA. Результат: 99,3% производительности оригинала. Ваш собственный SLM с RAG может обогнать GPT-4 по точности в своей нише. При стоимости в 1% от облачного API. Запустить свою первую SLM локально — Ollama + Hugging Face. Буквально одна команда в терминале. ─ Большие модели — это витрина. SLM — это бизнес. Я сам обучу свою SLM и покажу весь процесс — от нуля до рабочей модели. Действительно ли так просто, как говорят? ♥️ — хочу увидеть как это делается
🔥 — сам хочу попробовать следом