KKrist/Blog

Krist/Blog

@krists💻 Технологии🇷🇺 Русский📅 март 2026 г.

Веду свой уютный канал про старые и новые железки и не железки, нейросети и не нейросети и вообще всё, что мне интересно. Вступайте в чатик @kristchat Писать сюда - @kristaller

📊 Полная статистика📝 Все посты
430
Подписчики
544,545
Ср. охват
126.6%
Вовлечённость
11
Постов
~0.2
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

11 из 11
Kkrists
krists
2 мар., 13:42

Вышла третья порция Qwen3.5. В этот раз маленькие dense модельки: 9B, 4B, 2B, 0.8B (доступны как базовые, так и гибридные чат варианты). Из интересного - все модели, даже 0.8B, мультимодальные. Веса

👁 811📷 photo
Kkrists
krists
28 янв., 07:28

Trinity-Large-Preview Американский стартап Arcee-AI совместно с другими американскими стартапами Prime Intellect и Datalogy AI выпускают свою первую большую модель, обученную с нуля. - MoE, 398B-A13B. - Обучена на 17T токенов, поддерживает 11 языков, в том числе и русский, контекст 512 тысяч токенов. - Модель обучалась на 2048 видеокартах Nvidia B300. - Выпущены три чекпоинта: Istruct, Base (после midtrainig) и TrueBase (без midtraining). - На бенчмарках модель уступает Llama-4-Maverick, но это ...

👁 712
Kkrists
krists
12 февр., 06:52

GLM-5 Новая модель от китайского стартапа Z.AI. Краткий обзор: - MoE с высокой разряженностью 744B-A40B. - Обучена на 28.5T токенах. - Использует архитектуру Deepseek с нативной DSA (Deepseek Sparse Attention), которая существенно снижает цену инференса на длинных контекстах. - По бенчмаркам на уровне или лучше моделей от OpenAI, Anthropic и Google. - Веса выложены под лицензией MIT. Блогпост, веса.

👁 704📷 photo
Kkrists
krists
2 февр., 14:59

StepFun-3.5 Flash Китайский стартап StepFun выпустил новую открутую и быструю модель 3.5 Flash. Короткий обзор: - 200B MoE, 11B активных параметров. - Благодаря "трёхстороннему" Multi Token Prediction (MTP-3) модель работает со скоростью от 100 до 350 токенов в секунду, это позволяет улучшить опыт взаимодействия с агентом для конечного пользователя. - По бенчмаркам модель лучшая в своем размере (кое-где даже догоняет огромную Kimi K2.5). - Специально обучена под кодинг и deepresearch-сценарии. -...

👁 691📷 photo
Kkrists
krists
16 февр., 15:10

Qwen3.5 на RuQualBench. У Alibaba могут быть проблемы с API, так что результат может быть лучше.

👁 597📷 photo
Kkrists
krists
9 февр., 15:17

Слухами земля полнится Пока по новостям тухловато, напишу что там в этих ваших интернетах пишут про будущие релизы. - GLM-5. Предположительно доступна на openrouter как Pony Alpha (ruqualbench на скрине, в целом норм). Согласно PR в transformers, использует архитектуру Deepseek V3 с нативным DSA. Будет больше, чем GLM-4. - Qwen-3.5. Есть PR в transformers, llama.cpp, vllm и так далее - скорее всего релиз уже вот вот случится. Известно о двух моделях - 2B dense и 35B-A3B. Модели поддерживают зрен...

👁 580📷 photo
Kkrists
krists
16 февр., 11:02

Qwen3.5 Новая серия языковых моделей от Qwen. Они любят растягивать релизы, так что пока вышла только самая крупная версия. Короткий обзор: - MoE 397B-A17B, гибридная архитектура на базе Qwen3-Next. - 256К контекста, до 1М через YaRN. - Мультимодальность из коробки. Никаких отдельных VL версий. - По бенчмаркам модель на уровне закрытых SOTA моделей (GPT-5.2, Opus 4.5, Gemini 3) - Список поддерживаемых языков и диалектов расширен до 200. - Благодаря архитектурным изменениям значительно быстрее пр...

👁 564📷 photo
Kkrists
krists
4 февр., 06:53

Qwen3-Coder-Next Новая модель для кода от Qwen на основе Qwen3-Next. - 80B-A3B, есть базовая и instruct версия (ризонинг не поддерживается). - Основной упор на агентный кодинг. По бенчмаркам модель догоняет Sonnent 4.5 (стоит помнить, что реальная производительность конечно будет хуже). - Модель делает значительно больше шагов, чем другие опенсорсные модели. - Лицензия Apache 2.0 Модель, блогпост

👁 460📷 photo
Kkrists
krists
27 янв., 09:18

Kimi-K2.5 Обновление модели от китайского стартапа Moonshot AI. Основные моменты: - Модель дообучена на 15Т токенах поверх Kimi-K2-Base. - Мультимодальность, модель понимает картинки и видео. - Улучшенные агентные способности. - По бенчмаркам чуть-чуть…

👁 414📷 photo
Kkrists
krists
17 мар., 06:50

Mistral 4 Small Новая модель от Mistral: - MoE, 119B-A6B на архитектуре Deepseek V3. - 256К контекста. - По бенчмаркам всё очень слабо: например, на MMLU Pro новый Mistral проигрывает даже Qwen3.5-4B. Правда бенчмарки уже давно ничего не значат. - Разработчики модели делают упор на скорость, эффективность по токенам, мультимодальность и многоязычность. - Веса модели доступны под лицензией Apache 2.0. Блогпост, модель

👁 316📷 photo

Типы хуков

Статистика9 | 522 просм.
Нейтральный2 | 646 просм.

Длина постов

Длинные (500-1000)4 | 637 просм.
Средние (200-500)4 | 474 просм.
Короткие (<200)2 | 704 просм.
Очень длинные (1000+)1 | 141 просм.

Типы контента

📝
1
text
712 просм.
📷
10
photo
528 просм.
Krist/Blog (@krists) — Telegram-канал | PostSniper