Откуда лучше "навести" поисковых роботов?

Статус
В этой теме нельзя размещать новые ответы.
Едит: перечитав, можно сказать что вопрос из разряда "а чо как через 10 секунд в выдаче быть". Роботы ходят по собственному графику. Бест бет: это закладка с максимально высоким тИЦ/PR и максимально высокой частотой обновления контента, ибо в совокупности эти два фактора определяют "время жизни" робота на страницах ихнего ресурса.
Пингуй через какой-нить мегаубогий autopinger.com или ему подобный : )
Вопрос не в 10-ти секундах... И сути вам не ясно. Вопрос в том чтобы тысяча размещённых статей проиндексировались 100%, скажем, за неделю. На некоторых сайтах она может индексироваться месяц другой. Чтобы этого не было, на неё нужно направить робота. Которые 100% обитают на сервисах закладок/социалок. Но Яндекс их все вгоняет под фильтр - вопрос в том какая ещё жива.

А про жукладочник и лохотронские бипастеры у давно все знают, нечего тут повторятся времена меняются вместе с алгоритмами поисковых систем.;)

Добавлено через 4 минуты
На твой вопрос точно никто не ответит, тк все кому интересен этот метод автоматизируют процесс добавления в закладки. Есть куча сервисов и программ для этих целей, например:
*** скрытое содержание ***
Я знаю все эти сервисы! Уж не одна тема и тут была. Прогонять через них вы не хумулятором не зенопостером, да хоть хрумером при 1000-чи штук на каждую статью задолбаетесь.
Нужна всего одна "живая". А как автоматизировать - уж сам разберусь.
 
Ставил как то эксперимент по проверке нагона ботов на сайт. Первая ссылка была проиндексирована не на твиттере и не identi.ca, a на . И по логам сразу поисковики пошли от туда.
 
Вопрос в тему. У меня есть проблема с переиндексацией статей. С первичной индексацией всё понятно: жж и прочие блоги. А с переиндексацией сложнее. Скажем есть сайт, там изменились урлы страниц - по старым отдаётся 404 уже пару месяцев + ссылки стоят на новые адреса. В Яндексе всё нормально, новые страницы проиндексировались, старые выпали. В Гугле - в индексе новых нет, только старые - при нажатии на такую страницу - выпадает 404, но гуглобота это не смущает. И это не только с одним сайтом. Пробовал с парой сайтов, создавать акк и в нём указывать что страницы надо удалить - результат только через месяцы. Сайт целиком удаляется через часы, а отдельные страницы очень долго. Кто что подскажет на эту тему?
 
так поставь за место 404, 301
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху