Увеличиваем частоту индексации сайта!!!

Статус
В этой теме нельзя размещать новые ответы.
в дополнение.. не обязательно рнр
<meta name="revisit-after" content="2 weeks"> - проиндексировать через две недели.
Определение частоты обновления. Часто этот показатель путают с метатегом <META NAME="revisit-after" CONTENT="X days">, полагая, что именно он говорит поисковому механизму, когда следует вернуться на страницу для повторной индексации содержания. На самом деле спайдеры обладают своим алгоритмом и логикой определения частоты индексации, в то время как вышеуказанный метатег направлен всего лишь на обновление кэша на proxy-сервере клиента, т. е. он указывает proxy провайдера, как долго тот может хранить зеркальную копию сайта и когда он должен вернуться, чтобы обновить содержание. Не следует также забывать, что за каждым поисковым механизмом и, соответственно, за каждым спайдером находятся вполне конкретные люди, поэтому если сайт представляет собой набор ежедневно обновляющейся информации, интересной для широкого круга пользователей (в основном речь, конечно же, идет о новостях), то можно договориться об индексации персонально с администраторами системы. Алгоритмы поискового механизма представляют собой сравнение полученных результатов после переиндексации и определения коэффициента частотности, который будет увеличиваться, если содержимое сайта находится в процессе пополнения, и будет уменьшаться, если он не модифицируется из месяца в месяц.
ист: Для просмотра ссылки Войди или Зарегистрируйся

вообще помоему уже не учитывается данный мета тег, раньше он был сделан для дела, а так как все любят злоупотреблать, поисковые системы его игнорируют (мое мнение, так же где-то читал, но побыструхе не нашел)
 
вообще помоему уже не учитывается данный мета тег, раньше он был сделан для дела, а так как все любят злоупотреблать, поисковые системы его игнорируют (мое мнение, так же где-то читал, но побыструхе не нашел)



А где гарантия, что description и keywords имеют существенный вес? Сейчас полагаться стоит лишь на видимый текст и внешние факторы. Остальное только в комплексе поможет,

вот цитатка одна..

"Еще, правда, имеется в Интернете несколько так называемых мета-поисковых систем, которые именно эти метатеги ставят во главу угла, однако количество пользователей этих поисковиков составляет лишь доли процента, соответственным будет и число посетителей с них.

Из всего вышесказанного следует рекомендация: метатег "keywords" использовать есть смысл, включая в него 5-10 наиболее важных слов, обязательно из числа присутствующих в "видимом" тексте страницы, но многого от него ждать не стоит. "
 
Определение частоты обновления. Часто этот показатель путают с метатегом <META NAME="revisit-after" CONTENT="X days">, полагая, что именно он говорит поисковому механизму, когда следует вернуться на страницу для повторной индексации содержания. ...
... в то время как вышеуказанный метатег направлен всего лишь на обновление кэша на proxy-сервере клиента, т. е. он указывает proxy провайдера, как долго тот может хранить зеркальную копию сайта и когда он должен вернуться, чтобы обновить содержание.
ТЕГ ИМЕННО ДЛЯ ПОИСКОВИКА и на него можно забить недаром гугля свой сайтемап с ревизитами заделал ...
Прокся ориентируеться на ответ сервера в заголовке ей до хтмыла ... посердцу ... ему важно Date,Last-Modified,и когда упал в кеш на проксе ...
Вот кусок настройки SQUID про кеширование если интерестно
refresh_pattern [-i] regex MIN_AGE percent MAX_AGE[options]
используется, чтоб определить не устарел ли объект в кеше. Имя объекта сравнивается по очереди с регулярными выражениями в строках refresh_pattern до первого совпадения, параметры из соответствующей строк используются в алгоритме проверки "на свежесть". По умолчанию, регулярные выражения различают прописные/строчные буквы, чтобы игнорировать это различие, используется ключ "-i". MIN_AGE и MAX_AGE- время в минутах (MAX_AGE также используется, если приходится делать запрос к соседям (Cache-Control: Max-age=nnn) ). procent - целое число. OBJ_DATE - время извлечения объекта с исходного сервера (заголовок HTTP Date). OBJ_LASTMOD - время последнего изменения объекта (заголовок HTTP Last-Modified). OBJ_AGE = NOW - OBJ_DATE (как давно мы его извлекли). LM_AGE = OBJ_DATE - OBJ_LASTMOD (насколько стар был объект в момент извлечения). LM_FACTOR = OBJ_AGE / LM_AGE. CLIENT_MAX_AGE - максимальный возраст объекта, который удовлетворит клиента (HTTP/1.1 Cache-Control: ). EXPIRES - срок хранения объекта (из ответа сервера, если есть). В общих чертах алгоритм описан так:
если (определен CLIENT_MAX_AGE)
если (OBJ_AGE > CLIENT_MAX_AGE)
то (объект старый)
если (определен EXPIRES) {
если ( EXPIRES <= NOW)
то (объект старый)
иначе (объект свежий)
}
если (AGE > MAX_AGE) то (объект старый)
если (OBJ_DATE > OBJ_LASTMOD ) {
если (LM_FACTOR меньше PERCENT) то (объект свежий)
иначе (объект старый)
}
если (AGE <= MIN_AGE) то (объект свежий)
(объект старый)
 
а кто может сказать о совпадениях слов из заголовка с текстом страницы в процентном соотношении или это все туфта
 
а кто может сказать о совпадениях слов из заголовка с текстом страницы в процентном соотношении или это все туфта

желательно что бы несколько слов совпадало.. это даст тебе несколько более выгодные позиции по супер-пупер-сверх-низко-частотникам.. но по большому счету это туфта :)
 
а кто может сказать о совпадениях слов из заголовка с текстом страницы в процентном соотношении или это все туфта

Это называется "использовать ключевые слова в заголовках".
Все просто, ключевые слова под которые оптимизирована ваша страница должны частично присутствовать в заголовке этой же самой страницы.
 
а кто может сказать о совпадениях слов из заголовка с текстом страницы в процентном соотношении или это все туфта

Это всё туфта, но судя по смене алгоритма и если ничего предприниматься с алгоритмом не будет, то эта туфта возрождается и опять ей будет большое место в сеотеме.
 
Движок сайта и индексация

Дата последнего изменения страниц наверное играет роль для большинства роботов.
Еще смею заверить что на частоту индексации влияет движок сайта и его архитектура.
Допустим если движок позволяет случайным образом нагенерить/напарсить блоки окружающие основной контент страницы. Как итог при динамической генерации имеем увелечение страниц сайта при одинаковом наборе контента.
Что в свою очередь сильно влияет на частоту индексации.

У меня на некоторых ресурсах, по такой схеме организованных, яшин быстро-робот пасется каждый день, делая по 4000-10000 заходов.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху