850просмотров
47.5%от подписчиков
17 марта 2026 г.
Score: 935
Немного про будни аналитика Пост про несложную, но и не быструю задачку с работы, которая может прилететь 👍 Возьмём ситуацию в вакууме: у нас появляется новый сайт / лендинг / приложение или что-то ещё, что напрямую не связано с текущим проектом на работе.
Аналитики по этому новому проекту пока нет, и необходимо настроить наполнение новой таблицы логами событий. Структура работы по такой задаче обычно будет следующая: 🔘 Создаём события аналитики для нового проекта, опираясь на поставленные аналитические цели 🔘 Передаём события разработчику (обычно фронтенд), который привяжет их к нужным экранам / кнопкам / баннерам 🔘 Продумываем структуру таблицы, которая нам понадобится для дальнейшего анализа. Тут важно понимать, какие данные вообще можно получить с фронта и какие из них реально пригодятся в работе Проще всего — опираться на уже существующий шаблон работающей таблицы. Но проверка корректности и актуальности структуры важна на этом этапе как никогда. 🔘 Решаем вопрос с наполнением таблицы данными. В некоторых командах такими вещами занимаются дата-инженеры, но если их нет, это вполне может упасть и на аналитика В моём случае это решалось с помощью Airflow и Amplitude.
Схема следующая: события с фронта отправляются в Amplitude, после чего DAG в Airflow с определённой периодичностью выгружает эти данные через API, выбирает из данных только заранее заданные параметры/ события и загружает в БД уже в более подготовленном, менее сыром виде. 🔘 Вуаля — данные на месте, можно приступать к анализу 🤵 Вообще сама ситуация редкая, потому что настройка наполнения БД — обычно разовое действие: один раз настроил, и дальше всё работает само. Ставь 😮, если интересно почитать про то, как шаблонное наполнение таблицы испортило мне дальнейший анализ #о_работе