Используем LLM для поиска бага в релизе Что у нас есть: 1. Лог/стек ошибки 2. Релизная ветка в Git 🛠 Готовим контекст (пример для IntelliJ IDEA) 1. На вкладке Git открываем релизную ветку 2. Выделяем все коммиты, попавшие в релиз 3. Копируем список коммитов → вставляем в текстовый файл Файл: release_task_list.txt 4. Выделяем все измененные файлы в релизе → ПКМ → Create Patch → To file Файл: release_patch.txt 5. Логи/стек ошибки сохраняем в error.txt Идея простая: модели по этим трем файлам смог...
AI для IT: Теория и практика
Авторский канал про эффективное применение ИИ в разработке: LLM, промпты, практические кейсы, автоматизация и RAG. Для IT-специалистов, которым важно понимать, что происходит «под капотом». Сотрудничество: @ai4its_admin
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
8 из 8Когда мы переписываемся с моделью, кажется, что она держится в фокусе контекста беседы и помнит весь диалог. Но на самом деле LLM не хранит текущее состояние: она как БД в режиме read-only. ⚙️ Как это работает Вся "магия" диалога — внутри чат-платформы. Каждое ваше сообщение отправляется в модель вместе с полной историей диалога, системными инструкциями и параметрами запроса. Для модели это один большой контекст: «Вот всё, что нужно знать. Продолжи». После генерации ответа модель не сохраняет ни...
LLM можно использовать для первичного технического ревью кода — не как замену человеку, а как фильтр очевидных проблем и архитектурных перекосов. Это особенно полезно: - при работе с незнакомым кодом; - при быстром просмотре legacy; - перед тем, как отдавать код на полноценное ревью. [Контекст] Язык программирования, используемый фреймворк. [Задача] Выполни техническое ревью предоставленного кода. Определи только критические ошибки и места, требующие обязательного рефакторинга. Игнорируй космети...
LLM обучены на огромных массивах открытых данных. Поэтому они уверенно ориентируются во всём, что существует в публичном технологическом пространстве: - железо - сетевая инфраструктура - операционные системы - приложения, их установка и настройка - облачные сервисы - распространённые open-source проекты - языки программирования и фреймворки - типовые архитектурные подходы - популярные базы данных Это сильная сторона LLM: быстрый доступ к обобщённым знаниям без переключения контекста. А вот чего ...
Эффективное использование LLM ИИ — не «ускоритель всего». У него есть точка окупаемости. При взаимодействии с моделью мы тратим время на: - формулировку запроса; - передачу контекста; - 1–3 итерации уточнений; - проверку результата. Иногда суммарно это дольше, чем решить задачу руками (и головой). Первый фильтр Если вы сами сделаете это быстрее — LLM использовать не надо. Это базовый критерий. Не “можно ли применить”, а “есть ли экономия”. ⏳ Где LLM действительно экономит часы 1. Анализ большого...
Пожалуй, самый простой способ понять, чем LLM реально может быть полезна в работе, — задать этот вопрос самой модели, но в корректном контексте. Если вы этого ещё не делали, результат может удивить. Не потому что модель «знает вас», а потому что при наличии описанного стека и предметной области она способна генерировать более релевантные и прикладные ответы, чем в полностью пустом контексте. В начале диалога модели важно получить входные данные: кем вы являетесь и в какой роли она должна рассужд...
Привет! Меня зовут Никита, я бэкенд-разработчик. Я активно использую ИИ в работе и хочу собрать небольшое сообщество единомышленников — тех, кому важно понимать, как работает LLM и почему это работает именно так. Этот канал для тех, кому интересно не просто «общение с волшебным чатом», а использование ИИ как инструмента в реальных задачах: код, документация, базы данных, архитектура, автоматизация, RAG. Здесь я делюсь своим опытом и объясняю: - что реально работает - где начинаются проблемы - ка...
Channel created