sitemap.xml стоит ли скармливать не полный в поисковики?

Статус
В этой теме нельзя размещать новые ответы.

Yuryus

Постоялец
Регистрация
3 Апр 2007
Сообщения
388
Реакции
150
Начал создавать карту сайта для поисковиков, за сутки создано около 30к страниц, общий объем около 500-700к.

Подсунул то, что получил.
Как вариант может вообще не стоит скармливать не полный sitemap (но и ждать несколько недель для сборки карты сайта, такой возможности сейчас нет, т.к. выполняю эту процедуру не на стороне сервера)?
Возможно не стоит загружать не полную карту сайта, а подождать пока робот сам отсканирует страницы.

Спасибо
 
Это смотря под какую аудитория ресурс, практика показывает, что Гугль и сам не плохо индексирует новые сайты, а вот с Яшей могут быть задержки, а так то вам решать насколько оперативно требуется провести индексацию.
 
Начал создавать карту сайта для поисковиков, за сутки создано около 30к страниц, общий объем около 500-700к.
Подсунул то, что получил.
Как вариант может вообще не стоит скармливать не полный sitemap (но и ждать несколько недель для сборки карты сайта, такой возможности сейчас нет, т.к. выполняю эту процедуру не на стороне сервера)?
Возможно не стоит загружать не полную карту сайта, а подождать пока робот сам отсканирует страницы.
Спасибо
гугль может кушать любые размеры sitemap
только надо разбить по 100 000 на файл и скормить
у меня например 300к съел без проблем
 
Вопрос немножко в другой плоскости.
Меня беспокоит тот факт, что скушав 30к страниц из sitemap, не остановится ли робот на достигнутом и перестанет сканировать контент, который находится за пределами карты сайта?
Задаюсь таким вопросом, т.к. раньше не сталкивался с подобной задачей.
Сайт новый, для людей, контент не уникальный, не ГС.
 
Вопрос немножко в другой плоскости.
Меня беспокоит тот факт, что скушав 30к страниц из sitemap, не остановится ли робот на достигнутом и перестанет сканировать контент, который находится за пределами карты сайта?
Задаюсь таким вопросом, т.к. раньше не сталкивался с подобной задачей.
Нет, не остановится.
 
Вопрос немножко в другой плоскости.
Меня беспокоит тот факт, что скушав 30к страниц из sitemap, не остановится ли робот на достигнутом и перестанет сканировать контент, который находится за пределами карты сайта?
Задаюсь таким вопросом, т.к. раньше не сталкивался с подобной задачей.
Сайт новый, для людей, контент не уникальный, не ГС.
ясно что вебмастеры могут и не обновлять сайтмап, когда добавят новые страницки, поэтому если пс найдёт новые странички, то как миним он не будет их отбрасывать только по тому что их нет в сайт пам. Он лишь облегчает задачу роботу
 
ПС будет в любом случае сёрфить по сайту и искать страницы, сайтмап только поможет (пусть и не полный) добраться до тех страниц, ссылки на которые находятся глубоко. Однозначно ответ - кормить, а если есть возможность сделать полный сайтмап - не времени и воспользуйся ею.
 
Я считаю, скармливать т.к. такое количество страниц будет индексироваться долго плюс любой сайт развивается и страницы появляются, вот и по мере появления страниц они и будут в сайтмапе - естественно, нормально.

Только что ж за сайт то... новый и на 30К а общий так вообще :eek:
 
Многопользовательский магазин.
Контент копипаст.
Начал индексироваться.
Оставил сайтмапы в таком виде как есть (не полные) для Я и Г.
Спасибо за помощь.
Вопрос исчерпан.
 
Можно но смотри у гугла есть фильтр при большом добавлении страниц можно под него угодить
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху