A
Artificial Intelion | Новости ИИ
@artificial_intelion1.6K подп.
1.8Kпросмотров
8 августа 2025 г.
📷 ФотоScore: 2.0K
GPT-OSS от OpenA - это MoE-ракета OpenAI наконец-то показала карты: их open-source флагман GPT-OSS 20B — это Mixture of Experts (MoE) на стероидах. Быстрее, умнее, контекстнее. Но не без косяков. Что интересного: ☹️ MoE + FlashAttention 3 + MXFP4 квантизация = бешеная скорость в своем классе. ☹️ Контекст 256K по схеме RoPE + Sliding Window — глобальные связи + локальная скорость. Не full context, а умный гибрид (схемы гуглите!). ☹️ Заточка под агентов и код: Метрики в районе o4-mini, но с упором на CoT, Tool Calling, JSON, Structured Output. Идеально для пайплайнов. ☹️ Публичные MoE LoRA-тюны! Наконец-то можно кастомизировать без боли. Где собака зарылась: ☹️ Требует топовое железо: vLLM/Ollama/HF API есть, но запуск на старых картах — боль. Готовьтесь к RTX 3090 или A100. ☹️ Токсичный позитив: Английские ответы слишком жизнерадостные (ладно, "токсично-жизнерадостные") и водянистые. Лаконичность — не её конёк. Хотите гонять GPT-OSS 20B без апгрейда железа? Арендуйте сервер с A100 или RTX 3090 в Интелион Облако. Посекундная оплата, мгновенный доступ, никаких танцев с тикетами. Сохраняйте образы бесплатно — тюньте MoE-LoRA хоть 24/7. #OpenAI #OpenSource #нейросети #LLM 🙂 Artificial Intelion
1.8K
просмотров
1216
символов
Да
эмодзи
Да
медиа

Другие посты @artificial_intelion

Все посты канала →
GPT-OSS от OpenA - это MoE-ракета OpenAI наконец-то показала — @artificial_intelion | PostSniper