@
@seo_nodepad
@seo_notepad139 подп.
192просмотров
27 апреля 2024 г.
provocationScore: 211
Никогда не проверил, опишу логику работы: • стандартным фильтром выбираю необходимые параметры, цена, тематика, доменные зоны, ставлю 1 урл для сайта; • отправляю все сайты в заявки; • из заявок выгружаю в эксель, затем все домены проверяю в FastTrust, на спам, траст и чтобы соотношение TF и CF не было отрицательным (данные из Маджестика в Сапе очень сильно отличают от реальных), все некачественные домены отправляю в GBL; • из оставшихся заявок выгружаю в эксель и беру айди сайтов; • айди сайтов закидываю в Пайтон-скрпит. Логика скрипта: • получает абсолютно все страницы сайтов из Сапе через API; • через сервис Xmlriver получаю все проиндексированные страницы в Гугл для этого домена (ищу стандартным оператором "site:domain.com", максимально удается получить до 400 страниц, но этого достаточно); • далее сравниваю полученные результаты из Сапе и Гугл, если есть одинаковые страницы, то сохраняю айди страницы (не сайта); • в конце работы скрипта получаю список айди страниц. Далее отменяю все заявки и иду опять в поиск Сапе, указываю айди страниц, вывод всех страниц и ставлю сортировку IR ↓ Через 2 месяца другой скрипт парсит все ссылки из панели вебмастера Гугл, сравнивает с доменами купленные в Сапе и если домен не найден, отмечает его. Еcли есть свободное время и вдохновение, разбираюсь с каждой страницей, почему не проиндексировалась, смотрю кеш, смотрю как вебмастера скрывают ссылки, жалуюсь на них, а если времени нет, то просто отменяю размещение.
192
просмотров
1478
символов
Нет
эмодзи
Нет
медиа

Другие посты @seo_notepad

Все посты канала →
Никогда не проверил, опишу логику работы: • стандартным филь — @seo_notepad | PostSniper