1.6Kпросмотров
35.0%от подписчиков
28 января 2026 г.
Score: 1.8K
〰
Китайская тишина громче американского хайпа: что нашли в коде DeepSeek? 🤫 Пока мы тут спорим, заменят ли нас агенты, ребята из DeepSeek, похоже, готовят новый демпинг рынка. Без громких презентаций и красивых видео (привет, OpenAI), в их публичном репозитории нашли следы новой архитектуры — MODEL1. Скорее всего, это превью их следующей версии (V4), которую ждут уже в феврале. Что это значит для бизнеса? Разработчики раскопали в коде три ключевых изменения. Переводим их с технического на язык денег: 1. 📉 Снижение затрат на «железо» в 2 раза.
Новая архитектура (FP8 KV cache) позволяет использовать вдвое меньше памяти. Если они снизят себестоимость генерации, API может стать еще дешевле. Хотя казалось бы, куда уж дешевле DeepSeek V3? 2. 🚀 Скорость реакции.
Там используются алгоритмы, которые «пропускают» ненужные вычисления (sparse decoding). Ответы будут прилетать быстрее. Для внедрения в чат-боты — критичный показатель. 3. 🔮 Задел на будущее.
Код уже оптимизирован под новейшие чипы Nvidia Blackwell, которых на рынке еще толком нет. Они играют вдолгую и готовят инфраструктуру под масштабирование. Рынок ждет официального анонса в середине февраля. Если слухи подтвердятся, нас ждет очередной виток ценовой войны нейросетей. А для нас, как пользователей, это отличная новость — внедрение ИИ становится всё доступнее.