sitemap.xml стоит ли скармливать не полный в поисковики?

Тема в разделе "Вопросы новичков", создана пользователем Yuryus, 14 июл 2010.

Статус темы:
Закрыта.
  1. Yuryus

    Yuryus

    Регистр.:
    3 апр 2007
    Сообщения:
    383
    Симпатии:
    145
    Начал создавать карту сайта для поисковиков, за сутки создано около 30к страниц, общий объем около 500-700к.

    Подсунул то, что получил.
    Как вариант может вообще не стоит скармливать не полный sitemap (но и ждать несколько недель для сборки карты сайта, такой возможности сейчас нет, т.к. выполняю эту процедуру не на стороне сервера)?
    Возможно не стоит загружать не полную карту сайта, а подождать пока робот сам отсканирует страницы.

    Спасибо
     
  2. PiterPjen

    PiterPjen

    Регистр.:
    15 янв 2010
    Сообщения:
    216
    Симпатии:
    154
    Это смотря под какую аудитория ресурс, практика показывает, что Гугль и сам не плохо индексирует новые сайты, а вот с Яшей могут быть задержки, а так то вам решать насколько оперативно требуется провести индексацию.
     
  3. awx

    awx Создатель

    Регистр.:
    7 апр 2009
    Сообщения:
    43
    Симпатии:
    4
    гугль может кушать любые размеры sitemap
    только надо разбить по 100 000 на файл и скормить
    у меня например 300к съел без проблем
     
  4. Yuryus

    Yuryus

    Регистр.:
    3 апр 2007
    Сообщения:
    383
    Симпатии:
    145
    Вопрос немножко в другой плоскости.
    Меня беспокоит тот факт, что скушав 30к страниц из sitemap, не остановится ли робот на достигнутом и перестанет сканировать контент, который находится за пределами карты сайта?
    Задаюсь таким вопросом, т.к. раньше не сталкивался с подобной задачей.
    Сайт новый, для людей, контент не уникальный, не ГС.
     
  5. BadMotherFucker

    BadMotherFucker Модератор (Core Team)

    Регистр.:
    13 ноя 2009
    Сообщения:
    786
    Симпатии:
    570
    Нет, не остановится.
     
  6. Shred

    Shred

    Регистр.:
    14 июл 2008
    Сообщения:
    534
    Симпатии:
    58
    ясно что вебмастеры могут и не обновлять сайтмап, когда добавят новые страницки, поэтому если пс найдёт новые странички, то как миним он не будет их отбрасывать только по тому что их нет в сайт пам. Он лишь облегчает задачу роботу
     
  7. MrJinx

    MrJinx Создатель

    Регистр.:
    26 окт 2007
    Сообщения:
    48
    Симпатии:
    9
    ПС будет в любом случае сёрфить по сайту и искать страницы, сайтмап только поможет (пусть и не полный) добраться до тех страниц, ссылки на которые находятся глубоко. Однозначно ответ - кормить, а если есть возможность сделать полный сайтмап - не времени и воспользуйся ею.
     
  8. Tarasishe

    Tarasishe

    Регистр.:
    26 апр 2008
    Сообщения:
    190
    Симпатии:
    142
    Я считаю, скармливать т.к. такое количество страниц будет индексироваться долго плюс любой сайт развивается и страницы появляются, вот и по мере появления страниц они и будут в сайтмапе - естественно, нормально.

    Только что ж за сайт то... новый и на 30К а общий так вообще :eek:
     
  9. Yuryus

    Yuryus

    Регистр.:
    3 апр 2007
    Сообщения:
    383
    Симпатии:
    145
    Многопользовательский магазин.
    Контент копипаст.
    Начал индексироваться.
    Оставил сайтмапы в таком виде как есть (не полные) для Я и Г.
    Спасибо за помощь.
    Вопрос исчерпан.
     
  10. Alex-xv

    Alex-xv Постоялец

    Регистр.:
    10 июл 2009
    Сообщения:
    110
    Симпатии:
    5
    Можно но смотри у гугла есть фильтр при большом добавлении страниц можно под него угодить
     
Статус темы:
Закрыта.