К
Контролируемые галлюцинации
@controlled_hallucinations873 подп.
879просмотров
18 марта 2026 г.
stats📷 ФотоScore: 967
😱 Nemotron 3 Super, DLSS 5 и агент, который заменит вашего маркетолога У Anthropic новая малышка на миллион. Codex учится делегировать задачи субагентам, Hermes запоминает пользователей, а MCP опять хоронят. Штош.. 🌟 В Opus 4.6 стало доступно контекстное окно 1M токенов для пользователей Max, Team и Enterprise. Убрали доплату за длинный контекст через API, подняли лимит до 600 изображений и PDF-страниц за запрос. Главная цифра: 78.3% на MRCR v2, лучший результат среди всех моделей на длинном контексте. Формально миллион нам доступен больше года в Gemini, и OpenAI сделали то же для GPT-5.4, но бенчмарки показывают, что модели заметно деградируют после 256K. Поэтому 78.3% важнее самой цифры "1M". 🌟 До 28 марта у Anthropic промо с удвоенными лимитами в нерабочие часы. Работает на Free, Pro, Max и Team, распространяется на Claude, Cowork, Claude Code. Активируется автоматически. Проверить текущий статус в вашей таймзоне можно здесь. 🌟 Дженсен Хуанг на GTC выдал главный тезис года: центр тяжести сместился с обучения на инференс. "Inference inflection point" звучало из каждого второго твита после доклада. 🌟 DGX Station, настольный AI-суперкомпьютер на GB300 Grace Blackwell Ultra. 748 ГБ когерентной памяти, до 20 петафлопс. NVIDIA говорит, что на нём можно запускать модели до триллиона параметров без облака. Весной начнут продавать. 🌟 DLSS 5 Хуанг назвал "GPT-моментом для графики". Модель понимает семантику сцены и генерирует визуально точный результат в реальном времени до 4K. На демо использовали две RTX 5090, одну для игры, вторую под DLSS 5. К осени обещают оптимизировать под одну GPU. 🌟 NVIDIA выпустила Nemotron 3 Super: 120B параметров, ~12B активных, гибридная архитектура Mamba-Transformer, контекст на миллион токенов. Главное: опубликовали не только веса, но и рецепт обучения, данные и детали инфраструктуры. Экосистемная поддержка в день запуска: vLLM, llama.cpp, Ollama, Unsloth. 🌟 Moonshot (создатели Kimi) представили Attention Residuals: вместо фиксированного residual connection модель учится динамически взвешивать информацию из всех предыдущих слоёв. 1.25x вычислительное преимущество, менее 2% оверхеда на инференсе. 🌟 Codex добавил субагентов: дочерние агенты для параллельных задач внутри одной сессии. 🌟 MCP опять хоронят, но судя по графику использование растёт. Хайп прошёл, люди разбираются, где MCP реально нужен, а где проще написать скрипт. 🌟 Сингапурский стартап Okara запустил AI CMO: вводишь URL сайта, и система разворачивает команду субагентов для SEO, контента, Reddit, HN, X. Стоит $99/мес. Твит с анонсом собрал 5.3 миллиона просмотров за 4 часа. 🌟 Кстати, про контекстную гигиену. Даже с малышкой на миллион не забывайте фильтровать то, что в неё грузите. А если на этой неделе есть время попробовать только одну вещь, засядьте на все выходные с Claude Code, пока промо действует. Расширенную версию поста ищите на сайте. Если зашел контент, не забывайте на него реагировать. Подписывайтесь на канал, делитесь статьей с друзьями и оставайтесь любопытными. #галлюцинации_недели
879
просмотров
3055
символов
Да
эмодзи
Да
медиа

Другие посты @controlled_hallucinations

Все посты канала →
😱 Nemotron 3 Super, DLSS 5 и агент, который заменит вашего — @controlled_hallucinations | PostSniper