192просмотров
27 апреля 2024 г.
provocationScore: 211
Никогда не проверил, опишу логику работы:
• стандартным фильтром выбираю необходимые параметры, цена, тематика, доменные зоны, ставлю 1 урл для сайта;
• отправляю все сайты в заявки;
• из заявок выгружаю в эксель, затем все домены проверяю в FastTrust, на спам, траст и чтобы соотношение TF и CF не было отрицательным (данные из Маджестика в Сапе очень сильно отличают от реальных), все некачественные домены отправляю в GBL;
• из оставшихся заявок выгружаю в эксель и беру айди сайтов;
• айди сайтов закидываю в Пайтон-скрпит. Логика скрипта:
• получает абсолютно все страницы сайтов из Сапе через API;
• через сервис Xmlriver получаю все проиндексированные страницы в Гугл для этого домена (ищу стандартным оператором "site:domain.com", максимально удается получить до 400 страниц, но этого достаточно);
• далее сравниваю полученные результаты из Сапе и Гугл, если есть одинаковые страницы, то сохраняю айди страницы (не сайта);
• в конце работы скрипта получаю список айди страниц. Далее отменяю все заявки и иду опять в поиск Сапе, указываю айди страниц, вывод всех страниц и ставлю сортировку IR ↓ Через 2 месяца другой скрипт парсит все ссылки из панели вебмастера Гугл, сравнивает с доменами купленные в Сапе и если домен не найден, отмечает его.
Еcли есть свободное время и вдохновение, разбираюсь с каждой страницей, почему не проиндексировалась, смотрю кеш, смотрю как вебмастера скрывают ссылки, жалуюсь на них, а если времени нет, то просто отменяю размещение.