1.3Kпросмотров
80.3%от подписчиков
12 августа 2025 г.
question📷 ФотоScore: 1.4K
Как использовать модели локально? На своем ноутбке или компьютере? Полностью бесплатно? Быстро и удобно? Если у вас Window Открываете PowerShell и вводите winget install --id Ollama.Ollama -e Тем самым скачивается и устанавливается Ollama. Дальше рекомендую зайти в чат https://chatgpt.com/ и сказать ему параметры своего ноутбука или компьютера, чтобы знать какая модель потянет локально. Из предоставленных Ollama. Например у меня видео карта RTX 2060 на ноутбуке и мне порекомендовал чатик использовать опенсорсную модель "Qwen3 4B".