602просмотров
6 октября 2025 г.
Score: 662
Как за пару часов собрать скрипты для службы поддержки или отдела продаж Сегодня — делюсь рецептом оптимизации процесса и ресурсов по построению эффективных коммуникаций с клиентами, конечно на базе AI. Почему считаю его эффективным - потому что живой диалог на реальных кейсах - отличный способ посмотреть как выстроена коммуникация, и что клиенты спрашивают, чтобы не придумывать «Самые частые вопросы» а взять именно те и в том формате которые задают клиенты. В многих публичных телеграмм каналах сейчас вижу «Службы заботы» с реальными людьми которые обрабатывают входящие, «Боты поддержки» с придуманными сценариями, которые не решают проблему клиента, самым эффективным будет тут создать AI ассистента у которого будут все «полномочия» по решению проблем от человека и аналитика мощной LLM (ChatGPT, GigaChat и т.д.) для анализа наших же данных. Наша задача — дать им качественный сырой материал. Итак, пошли готовить🍜 Берем: 1. Менеджеров продаж или поддержки, и просим их выгрузить всю клиентскую перепискув Telegram/WhatsApp за последние 3 -6 месяцев Как выгрузить?
Для Telegram: стандартный экспорт чата в настройках. Выбираем формат HTML. Это ключевой момент. Почему не PDF? Потому что HTML структурно сохраняет сообщения, что критично для последующего парсинга. Получаем папку с папками и файлами. 2: Очищаем и анонимизируем файлы
Это non-negotiable шаг. Без него все дальнейшие действия не только неэтичны, но и противозаконны. Берем папку с нашими HTML-файлами и пропускаем их через скрипт, который (если нужен сам скрипт, напишите в комментах дам ссылку на git) : ✅Вычищает весь HTML-код, оставляя только текст переписки.
✅Анонимизирует данные: алгоритмически находит и заменяет (или удаляет) ФИО, номера телефонов, email-ы, реквизиты карт и т.д. Используем простые regex-паттерны и эвристики. На выходе получаем чистый .txt файл, где осталась только суть диалогов: запросы и ответы ваших специалистов. 3: Анализ и кластеризация сценариев Вот здесь — магия. Берем этот .txt файл и загружаем в любую продвинутую LLM. Промт: Проанализируй прикрепленный текстовый файл, содержащий историю переписки службы поддержки с клиентами. Собери списком часто повторяющиеся сценарии по строгой формуле:
'Запрос клиента' -> 'Действия специалиста' -> 'Текст ответа'.
Объедини (кластеризуй) запросы по группам, где действия специалиста и смысл ответа идентичны. Результат представь в виде структурированного списка с группировкой по сценариям. Что получаем на выходе? Не просто текстовый файл, а таксономию ваших бизнес-процессов, извлеченную и структурированную искусственным интеллектом.
Вы увидите четкие кластеры: Сценарий "Сброс пароля": 15 вариаций запроса -> Действие: Запросить email, сверить с базой, выдать инстр. -> Текст: Уважаемый... для сброса пароля перейдите по ссылке... Сценарий "Уточнение тарифа": 10 вариаций -> Действие: Запросить номер ЛС, проверить тариф, описать опции -> Текст: По вашему договору... доступны тарифы... Итог и следующий шаг: Вы только что провели быстрый количественный анализ и создали первичный датасет для обучения AI ассистента, основа для: - Системы быстрых ответов для живых операторов. - Ядра для вашего будущего AI-ассистента, который можно будет дообучать на этих сценариях, используя fine-tuning или, что более современное. Забирайте рецепт, пусть ваша работа станет еще интереснее и эффективнее 🫶