1.5Kпросмотров
9 февраля 2026 г.
📷 ФотоScore: 1.6K
Наткнулся тут на днях на статью Евгения Филиппова про анализ ТЖ с помощью LLM. Полная статья — здесь. Изложу лишь краткие выводы и практическую пользу от использования такого подхода. Если вы хотя бы раз собирали ТЖ, то в принципе представляете, какие объёмы могут собираться: это гигабайты текстовой информации, а значит — миллионы и миллионы токенов для LLM. У самых современных LLM контекстное окно — около 1M токенов (Gemini). Даже если в это контекстное окно и влезет целиком «Война и мир», то логи вряд ли поместятся туда полностью. Это первая и основная проблема, которая у меня возникает, если задумываться о таком подходе. С другой стороны, так как LLM прекрасно обрабатывают текстовую информацию, находят зависимости и подсвечивают неочевидные моменты, их использование при анализе ТЖ вполне может быть оправдано. В статье рассмотрены две задачи: анализ плохих запросов (DBPOSTGRS);
анализ взаимных блокировок (TDEADLOCK). Спойлер: логи всё равно придётся собирать вручную. К тому же перед отправкой в LLM их нужно обезличить: убрать имя базы и имена пользователей. Это ложится дополнительной нагрузкой на эксперта. Далее обязательно нужно сделать выжимку — максимально сократить объём информации, насколько это возможно, и оставить только действительно нужные данные. Не получится закинуть всё в исходном виде и сказать: «Сделай так, чтобы всё работало, все медленные запросы были исправлены, а все блокировки устранены». Пока это только мечта. Автор отмечает, что часть советов может быть шаблонной или даже вредной (например, рекомендация «добавьте индексы» часто не помогает в 1С: в большинстве случаев средствами платформы невозможно создать такие индексы). При этом модель способна подсветить то, что эксперт мог пропустить, — например, влияние LEFT JOIN с агрегированным подзапросом. Думаю, если «скормить» нейросети выжимку по существующим индексам, например через ПолучитьСтруктуруХраненияБазыДанных(), рекомендации будут немного лучше. Опять же, нужно как-то отфильтровать индексы только тех таблиц, которые используются в запросе. Важно использовать несколько моделей для взаимной проверки: ответы разных LLM отличаются, а сравнение снижает риск упустить что-то важное или принять ошибочную рекомендацию. В статье рассматриваются только Qwen и DeepSeek. LLM — не замена эксперту, а ассистент для ускорения обработки рутины и генерации гипотез, особенно когда нет доступа к среде заказчика и нужно быстро сузить поиск причины. А вы уже использовали нейросети для анализа ТЖ?