760просмотров
32.6%от подписчиков
17 марта 2026 г.
Score: 836
👉 Коллеги помните!
Если вы используете внешние сервисы AI для решения рабочих задач, в том числе проектирования и оптимизации процессов, то ваши запросы уходят в "недружественные" страны! 📌 Я тут опробовал установку LLM локально, изучил инструменты Ollama и LM Studio, после чего мне открылся целый мир open source моделей LLM, которые можно поставить локально и они работают даже у меня на ноутбуке.
И да, качество ответов локальных LLM снижается, да и скорость ответов заставляет желать лучшего, если у Вас просто ноутбук! 📌 Но, зато работает без интернета вообще, а значит и без передачи запросов за рубеж. Информация о процессах вашей организации будет в безопасности и Вы ничего не нарушаете :)
Попробуйте поставить Ollama - она самая простая в использовании, и в ней несколько LLM на выбор. 👉 Ну, а если хотите получить концентрированный опыт по применению LLM, приходите ко мне, к Андрею Коптелову, на курс Основы работы с языковыми моделями GPT (Gen AI), стартующий 24 марта. На нем, кстати, мы рассмотрим, что можно выжать из LLM в части описания, анализа и оптимизации процессов.