К
Контролируемые галлюцинации
@controlled_hallucinations873 подп.
1.1Kпросмотров
11 марта 2026 г.
stats📷 ФотоScore: 1.2K
🫡 GPT-5.4, MacBook на M5 Max и 630 строк, которые автоматизируют ML-ресёрч Очередной флагман от OpenAI с миллионным контекстом, Claude делает code review, Google обновляет свою быструю малютку, новый MacBook для локального инференса. А что Титов? 🇷🇺 🌟 OpenAI выпустил GPT-5.4 и GPT-5.4 Pro одновременно, что для них нетипично, обычно Pro-версия появляется через пару недель. Это первая модель семейства 5.x, которая объединяет код и интеллектуальные задачи в одном месте. Контекст до 1M токенов, нативный computer use. Но есть нюансы. Контекст в миллион токенов не означает миллион полезных токенов: на 16-32K точность ~97%, на 256-512K падает до 57%, а на 512K-1M уже 36% (источник). Плюс к этому, в Codex после 272K потребление увеличится вдвое. То есть реальный потолок так и остаётся где-то в районе 256K. В Codex также появился режим /fast, дающий до 1.5x ускорение генерации в обмен на двойное потребление. 🌟 Наконец-то выпустили Codex для Windows с нативным sandbox на уровне ОС (ACL, restricted tokens, выделенные пользователи). 🌟 Anthropic запустил Claude Code Review, мультиагентную систему, где параллельные агенты ищут проблемы, верифицируют находки и ранжируют по серьёзности. И тут же в треде Anthropic написали, что одно ревью стоит примерно $15-25. OpenAI моментально подхватил. А следом и Cognition добавила. 🌟 Google выкатил Gemini 3.1 Flash-Lite. Регулируемый thinking level, где ты сам выбираешь баланс между интеллектом и скоростью. Заявлено больше 360 tok/sec и миллионный контекст. Да, стало дороже по сравнению с предшественником Gemini 2.5 Flash-Lite: $0.25/$1.50 за миллион токенов. Я с удовольствием переключил на новую модель свой суммаризатор и переводчик. 🌟 Андрей Карпаты выложил autoresearch, репозиторий на ~630 строк. AI-агент в цикле сам меняет параметры, запускает эксперимент, смотрит на результат и пробует снова, без участия человека. За ~700 таких итераций агент нашёл 20 улучшений, которые сократили время обучения GPT-2 на 11%. Ещё в декабре 2025-го Yi Tay ввёл в оборот термин vibe training для подобного подхода: ты не смотришь, что агент меняет, просто проверяешь метрики. 🌟 Про модели Qwen 3.5 я рассказывал на прошлой неделе, 9B всё ещё трудится на моей машинке. Но на этой неделе важнее другое: команду покинул технический лидер, а за ним ещё несколько ключевых людей, включая Hui Binyuan (lead Qwen Code), который ушёл в Meta. На замену Alibaba наняла Zhou Hao из Google DeepMind. CEO Alibaba Cloud пообещал продолжить open source стратегию, но когда уходят люди, обещания стоят дешевле кода. 🌟 Apple представила новые MacBook на M5 Pro и M5 Max. M5 Pro: до 64GB единой памяти, 307GB/s пропускной способности памяти. M5 Max: до 128GB, 614GB/s. SSD до 14.5GB/s (вдвое быстрее M4). Главная цифра для нас: обработка промптов LLM до 4x быстрее M4. Для тех, кто гоняет модели локально, это самое значимое обновление года. 🌟 Релиз, который зацепил реакцией сообщества: Microsoft Copilot Cowork. В релизе на сайте написано: "Тесно сотрудничая с Anthropic, мы интегрировали технологию Claude Cowork в Microsoft 365 Copilot". Так вы же вроде с OpenAI в десна целовались? В треде с анонсом сразу видно, как пользователи относятся к Copilot. 🌟 Арифметика на закуску. На странице Codex видно 5-часовые лимиты GPT-5.4: Pro за $200 даёт 223–1120 сообщений, Plus за $20 — 33–168. Семь аккаунтов Plus за $140 дают 231–1176. Если пользуетесь Codex, можно сэкономить $60. Вот ссылка как это реализовать. Думайте. Расширенную версию поста ищите на сайте. Если зашел контент, не забывайте на него реагировать. Подписывайтесь на канал, делитесь статьей с друзьями и оставайтесь любопытными. #галлюцинации_недели
1.1K
просмотров
3688
символов
Нет
эмодзи
Да
медиа

Другие посты @controlled_hallucinations

Все посты канала →
🫡 GPT-5.4, MacBook на M5 Max и 630 строк, которые автоматиз — @controlled_hallucinations | PostSniper