77просмотров
8 декабря 2025 г.
📷 ФотоScore: 85
Когда мы переписываемся с моделью, кажется, что она держится в фокусе контекста беседы и помнит весь диалог. Но на самом деле LLM не хранит текущее состояние: она как БД в режиме read-only. ⚙️ Как это работает Вся "магия" диалога — внутри чат-платформы. Каждое ваше сообщение отправляется в модель вместе с полной историей диалога, системными инструкциями и параметрами запроса. Для модели это один большой контекст: «Вот всё, что нужно знать. Продолжи». После генерации ответа модель не сохраняет никакого состояния — и «помнит» диалог только в том случае, если предыдущие сообщения снова передаются ей в следующем запросе. 🔳 Контекстное окно У модели есть "оперативная память" — сколько токенов она может "обдумать" одновременно. В это окно попадают: - системный промпт
- история диалога
- текущее сообщение
- ответ модели Когда окно переполняется, старые части диалога выпадают — чаще всего это происходит с деталями из середины обсуждения. Поэтому длинные цепочки рассуждений со временем начинают «плыть». Что важно учитывать - длинные диалоги теряют контекст;
- ключевые детали лучше повторять;
- большие обсуждения делить на этапы. Маленький, но полезный приём Используйте мини-промпт: «Сделай сводку по текущей беседе»
Это подчистит контекст, уменьшит шум и поможет и вам, и модели удерживать основную линию разговора. Эту сводку можно скопировать в новый чат с промптом
«Вот сводка по предыдущей беседе»
и «ответвить» диалог с того же места, но в новом окне. Вывод:
LLM не ведёт диалог — она каждый раз продолжает текст в заданном контексте. Вся работа с чатами сводится к управлению этим контекстом, а не к «общению».