Ишу: Сервис или софт сбора позиций по отдельным страницам

Статус
В этой теме нельзя размещать новые ответы.

nonenone

Гуру форума
Регистрация
18 Сен 2007
Сообщения
454
Реакции
94
Нужно регулярно чекать более 1000 ключей на одном сайте на разных страниах
Для каждой страницы прописаны свои ключи (1-5 ключей), в дальнейшем страниц и ключей будет больше в разы
Подскажите чем было бы удобно чекать позиции отдельных страниц сайта по конкртено заданным ключам в Yandex.ru, Yandex.ua, Google.com, Google.com.ua, Google.ru
Еще нужна возможность выводить всю статистику в одну таблицу, в моем случае выходит 5 столбиков и 1000 строчек

Смотрел AllSubmiter для этих нужд, но после зазгрузки 500 странц программа мягко говоря притормаживает,
Site-Auditor - показался не сильно удобным для этих целей

В общем что посоветует? по сути никаких особых дом параметров (Тиц, ПР, индекс, беки и т.д.) чекать не требуеться, только "кучу" страниц с еще большим кол-во запросов в 2-5 ПС
 
Вот Для просмотра ссылки Войди или Зарегистрируйся посмотри, может подберешь что подходящее. Особое внимание пункту "Есть ли контроль страницы в выдаче по запросу".
 
а десктопные проги с таким функционалом не посоветует ?, хочу понять что будет дешевле, платить за сервис, или за прокси для программы...
 
Я allsubmitter использую, прога весьма функциональная, но вот жёсткой привязки запрос-страница там нет. На счет других даже не знаю, среди фришных вряд ли найдете.
 
платные тоже подходят
пробовал с allsubmiter, но как я уже и говорил, после загрузки 500 страниц и 1000 ключей, программа стала сильно тормозить, а то сколько она будет чекать в 2-х ПС я даже и не знаю, а если подключать прокси - так это может в конечном итоге оказаться дороже чем сервисы, в общем хотелось бы получить совет от человека со схожими требованиями к статистике ...
 
На счет 1000 незнаю, но помоему такой функционал у Rank Tracker из набора SEO Power Suite Enterprise Для просмотра ссылки Войди или Зарегистрируйся
 
с таким кол-вом запросов справляется SERP parcer - 30$ + прокси 10$
не вижу логики на счет того что бы задавать страницу для запросов сразу. все равно гугл сам определяет релевантную страницу, а не вы ее задаете. понятно что при таком кол-ве запросов перемешка неизбежна. но можно с не релевантной страницы поставить ссылку на релевантную с прямым вхождением и все ок.
обычно если гугл считает релевантными больше одной страницы. то лучше склеивать их 301 т.к. он все страницы будет понижать - на пример вместо того что бы быть на 7-м месте у вас будут под ряд 24,25,26 позиции.
 
спасибо за наводку, не слышал про эту прогу, как и говорил думал собирать позиции с помощью allsubmiter, но как то не понравилось, а SERP parcerпо описанию вроде как то что надо...
 
там есть еще возможность подключить analitycs/metrica и adwords/direct. что бы прямо из программы видеть частотность и кол-во переходов.
 
опробовал програму, все классно, кроме одного, я пытался парсить через списки прокси + антикапча + в локальных настройках указывал прокси и все равно меня по локальному IP банил гугл через какой то время, а прога нужна для работы из офиса, где на одном IP еще с 20 человек, так вот они были как то были уж совсем не рады бану гугла ...
в общем написал разработчику жду рекомендаций ...
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху