1.3Kпросмотров
80.3%от подписчиков
12 августа 2025 г.
question📷 ФотоScore: 1.4K
Как использовать модели локально? На своем ноутбке или компьютере? Полностью бесплатно? Быстро и удобно? Если у вас Window Открываете PowerShell и вводите winget install --id Ollama.Ollama -e Тем самым скачивается и устанавливается Ollama. Дальше рекомендую зайти в чат https://chatgpt.com/ и сказать ему параметры своего ноутбука или компьютера, чтобы знать какая модель потянет локально. Из предоставленных Ollama. Например у меня видео карта RTX 2060 на ноутбуке и мне порекомендовал чатик использовать опенсорсную модель "Qwen3 4B".
1.3K
просмотров
542
символов
Нет
эмодзи
Да
медиа

Другие посты @modelerPRO

Все посты канала →
Как использовать модели локально? На своем ноутбке или компь — @modelerPRO | PostSniper