887просмотров
33.4%от подписчиков
23 марта 2026 г.
📷 ФотоScore: 976
LLM сейчас пытаются прикрутить буквально ко всему — от поиска до кофемашин. Но если у вас реальная поддержка с тысячами обращений, быстро становится понятно: одной магией LLM проблему не решить. Где-то по-прежнему лучше работает старый добрый бустинг, где-то нужен RAG, а где-то — своевременная эскалация запроса живому специалисту. В новой статье разбираем, как в Лемана Тех устроена ML-экосистема поддержки: какие модели отвечают за классификацию обращений, где подключаются LLM, как работает RAG по Wiki и почему гибридная архитектура оказывается надёжнее «одной большой нейросети» ✍️ Иногда самая умная модель — это та, которую вы решили не использовать. 💡