sitemap google webmaster

Статус
В этой теме нельзя размещать новые ответы.
Если Гугл не может достучатся до robots.txt значит проблема в хостинге (однозначно). Ругать толку нет, скажет что были проблемы или он ничего не знает :) Случаем не питерхост?

по карте и стандартам, смотрим СЮДА --> Для просмотра ссылки Войди или Зарегистрируйся
и делаем так же :)
 
Если Гугл не может достучатся до robots.txt значит проблема в хостинге (однозначно). Ругать толку нет, скажет что были проблемы или он ничего не знает :) Случаем не питерхост?

по карте и стандартам, смотрим СЮДА --> Для просмотра ссылки Войди или Зарегистрируйся
и делаем так же :)

Нет не Питерхост, но что-то мне это не нравится, а могут они какой-нибудь запрет на Гуглбот или еще как то ограничить поисковиков, от моего сайта, хотя сайты в индексе, я просто нуб во всяких серверных заморочках.
---------------------------------------------
ЗЫ. Вот сегодня 3-й раз отправил, опять все нормуль принято все... видать хостинг лягает часто :mad:
 
Запрет на гугла ставить не будут (это глупо), если было бы так то все страницы сайтов просто вылетели по ошибкам. Здесь дело в хосте, либо он не справляется из-за нагрузок (это если shared или слабый vds), либо хостер что-то изобретает с серваком (перезагружается часто, настраивает в общем)

Это не большая проблема, обычно кратковременная, и сайту сильно не вредит, карта не так важна как о ней думают, вот если начнут вылетать страницы по 404, тогда нужно разменивать хост.
 
Да элементарно, Ватсон, любой поисковик, даже самый наилучший и мощнейший весьма инертен, Пока паук пролазиет, пока найдет различия, пока создаст подбазу в основной индекс, пока пройдет все это через различные фильтры, пока объединится с основной базой. Вы представляете какая вичислительная мощь нужна? А для мирового инета?
 
Если Гугл не может достучатся до robots.txt значит проблема в хостинге (однозначно). Ругать толку нет, скажет что были проблемы или он ничего не знает Случаем не питерхост?
То-же самое уже как пару недель не достучиться. Хостинг от Джино. Пробовал писать в саппорт - из саппорта отшутились: "дайте ай-пи адрес бота будем разбираться"...
 
У меня вот какой вопрос:
<url>
<loc>http://бла-бла.ру/price.htm</loc>
<lastmod>2007-11-28</lastmod>
<changefreq>monthly</changefreq>
<priority>0.</priority>
</url>
вот часть кода карты сайта, можно как нибудь похимичить с кодом для лучшей индексации, и вообще как лучше оформлять этот код, есть у кого соображения по этому поводу?
 
Вопрос: а сколько в среднем берет времени у гугла для включения карт со сайтмапа в индекс?
Я засабмитил сайтмапы нормальные как положено ещё полторы недели назад - карта скачивается ежедневно, а ниодна страница не проиндексирована.

Спасибо.
 
Вопрос: а сколько в среднем берет времени у гугла для включения карт со сайтмапа в индекс?
Я засабмитил сайтмапы нормальные как положено ещё полторы недели назад - карта скачивается ежедневно, а ниодна страница не проиндексирована.

Спасибо.

Он сначала хавает сайтемап и проверяет его на рабочие ссылки - на моём сайе это дело заняло дня 2 на не развитом на тот момент ресурсе. А вот с индексацией дело обстоит всё так же - он не индексирует быстрее от того, что сайтемап добавили, просто индексация более полная, есть уверенность, что он проиндексирует всё и ничего не пропустит, а вот срок попадания в индекс - всё такой же - нулевой сайт сразу весь в индекс не попадёт, постепенно, раз за разом, при посещении ботом будут добавляться всё новые страницы, в зависимости от прокаченности ресурса.

Хотя странно, что до сих гуглом ни одна страница не проиндексирована -обычно он шустёр в этом плане - у меня он после прогона нулёвого сайта по 1000 катам главную уже на следующий день в индекс включает.
 
Вопрос: а сколько в среднем берет времени у гугла для включения карт со сайтмапа в индекс?
Я засабмитил сайтмапы нормальные как положено ещё полторы недели назад - карта скачивается ежедневно, а ниодна страница не проиндексирована.

Спасибо.

по разному, у меня например новый ресурс (на данный момент ему 4 или 5 дней, уже в Для просмотра ссылки Войди или Зарегистрируйся
, думаю все зависит от качества самого ресурса и количества размещенных на нем ссылок,
порекомендовал бы ставить побольше ссылок с главной на внутренние
ЗЫ. сайт мап ваще не делал, ИМХО чета у мя такое чувство что от него толку мало )
ИМХО к тому же не рекомендуется делать сайтмап на нулевые ресурсы
 
Для нормальной индексации карту нужно разбивать по 1000. Считается что для гугла большие карты не проблема (о чем где-то в гугле написано), но проблемы все-таки есть.

Yahoo может за большую карту подарить фильтр и выкинуть страницы.

Выход:
Разбиваем карту по 1000 и каждую прописываем в robots.txt, все карты скармливаем через инструменты. Новые страницы в новой карте.

А есть прога которая сама разбивает карту на части?А то 5к страниц как-то трудоемко
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху