352просмотров
98.6%от подписчиков
13 февраля 2026 г.
stats📷 ФотоScore: 387
🧠 Получаем GLM 5.0 бесплатно в VSCode для вайбкодинга! 🏆 Друзья, кто хочет протестировать модель, делюсь своим способом. По последним бенчмаркам с LMArena, модель действительно обошла в кодинге Gemini 3. Так что пробуем! 🙃 Контекст, правда, уменьшенный - 128к, есть трехчасовые лимиты, и работает чуть медленнее, но погонять-потестить норм. 🖐️ Скачиваем Ollama по ссылке https://ollama.com/ 🤓 Открываем на ПК командную строку, желательно в папке C:\Users и в строке директории вводим cmd Открывается командная строка. Запускаем команду: ollama run glm-5:cloud Затем запускаем Ollama и проверяем что в моделях появилась GLM5. Запускаем еще команду в командной строке: ollama run glm-5:cloud 👀 В VSCode в Roocode выбираем OpenAI Compatiable провайдера, и прописываем: Base URL: http://localhost:11434/v1
API Key: ollama
Model: glm-5:cloud Наслаждаемся! @flick_ai