1.1Kпросмотров
78.2%от подписчиков
17 марта 2026 г.
📷 ФотоScore: 1.3K
#ИИжедневник "Зачем платить, если можно поставить локально?" Мне это пишут раз в неделю. И я понимаю логику: зачем отдавать деньги за подписку, если можно скачать модель на свой комп и пользоваться бесплатно? Звучит как лайфхак. А вот что на практике. Я ставил Qwen 3.5 на 9 миллиардов параметров и да, она работала более-менее, отвечала за секунд 10-15. Можно сделать ботиков в ТГ или даже написать сайт. Потом даже поставил QwenCoder побольше, уже от 15 секунд на ответ. И это на RTX 4070 Ti Super с 16 гигами видеопамяти. Не на ноутбуке из 2018 года, а на нормальном игровом компьютере. Могу ли я запустить процессы и пойти играть в Marvel Rivals, как я это делаю сейчас? Конечно нет. А с Claude Code я могу так сделать. А теперь сравните. Claude Opus недавно поднял контекст сессии до миллиона токенов. Это значит, что он держит в голове весь ваш проект целиком: код, файлы, историю разговора. Локальная модель с моим железом тянула ну максимум 64к. И даже в этом маленьком окне она отвечает в 5-10 раз медленнее. Когда привыкаешь работать с такой скоростью и объёмом, вернуться на локальную модель это как пересесть с автобана на дорогу где-то в селе. "Ну так поставь модель побольше, DeepSeek или Qwen на 235 миллиардов, они же не уступают!" Да, в бенчмарках не уступают. Но чтобы запустить такую модель нормально нужна машина за 3-5 тысяч евро. И это только железо. И вот тут вопрос, который мало кто задаёт: а ради чего? Вы знаете проекты, которые окупят эти 5 тысяч? Вы знаете кому продавать ваши гениальные идеи? Или просто хочется сэкономить на подписке за 20 баксов в месяц? Но даже если купите такую машину, это всё равно не будет тот Claude Code, который вы видите в моих видео. Потому что Claude Code это не просто модель. Это скиллы, хуки, триггеры, MCP-серверы, субагенты. Целая инфраструктура, которая работает поверх модели. Локальная модель из коробки этого не умеет, её нужно уметь настраивать. Даже OpenClaw, который я настраивал, хорошо работает только с моделями, которые натренированы на использование тулов. А большинство открытых моделей с тулами работают через раз. Время сейчас самый ценный ресурс. Вы можете потратить его на шум, на попытки сэкономить. Но потом будет как в поговорке, заплатите дважды. Если вы только учитесь и хотите делать свои первые проекты, купите подписку или токены. Это дешевле, быстрее и вы получите результат вместо того, чтобы три дня настраивать Docker и Ollama. Локальные модели станут доступнее, но не сегодня.