вопрос по sitemap.xml

Тема в разделе "Вопросы новичков", создана пользователем Mikhalich, 9 мар 2009.

Статус темы:
Закрыта.
  1. Mikhalich

    Mikhalich Создатель

    Регистр.:
    3 фев 2009
    Сообщения:
    47
    Симпатии:
    0
    Возник такой вопрос: делаю безредиректные доры, принцип такой: сабдомен, на сабе 20-30 папок по 1к страниц в каждой, 1к страниц в корне сабдомена. все страницы соответственно перелинкованы. Теперь сам вопрос. Скармливать google sitemap.xml из корня сабы, который создаётся доргеном, и имеет 1к ссылок, или сделать свой sitemap.xml с линками на все страницы имеющиеся на сабдомене?
    Задача, соответственно, состоит в том чтоб побыстрее проиндексировались все страницы дора.
    Не слишком ли подозрительно для поисковика, если выкладывать ежедневно по 3-4 сабдомена с 30к страниц?
     
  2. ko-yg

    ko-yg

    Регистр.:
    12 ноя 2008
    Сообщения:
    519
    Симпатии:
    161
    такое кол-во паг ты в гугл не загонишь ни за что в жизни. если только у тебя нет реса с пыром 7 на морде, и ты оттуда не получишь бек на мапу.
    самое простое в этой ситуации не заморачиваться с общим сайтмапом, а просто в корневом роботс.тхт прописать линки на все сайтмапы. гугл это всегда приветствовал, особенно если линков много - запросто можно разбить сайтмап на тцать частей - гугла их найдет через роботс.
     
  3. Mikhalich

    Mikhalich Создатель

    Регистр.:
    3 фев 2009
    Сообщения:
    47
    Симпатии:
    0
    Можешь пример написать, как составлять robots.:ah::thenks:
     
  4. ko-yg

    ko-yg

    Регистр.:
    12 ноя 2008
    Сообщения:
    519
    Симпатии:
    161
    Mikhalich нравится это.
  5. Mikhalich

    Mikhalich Создатель

    Регистр.:
    3 фев 2009
    Сообщения:
    47
    Симпатии:
    0
    Подожди. Дык Disallow: это вроде запрещение для индексации. или я что-то неправильно понял?
     
  6. Rastafan

    Rastafan

    Регистр.:
    1 фев 2008
    Сообщения:
    649
    Симпатии:
    169
    Ты правильно понял..., вышеуказаный роботс говорит, что все паги для всех существубщих роботов открыты к индексации, как было написано выше идиальный вариант, это прописание папочных сайтмапов в роботсе, так же в случаях если сайтмап состоит из болле чем 5к паг его нужно разбивать на составные части.


    По-поводу, загона в индекс, не стоит быть таким категоричным ;)
     
  7. Mikhalich

    Mikhalich Создатель

    Регистр.:
    3 фев 2009
    Сообщения:
    47
    Симпатии:
    0
    Продолжаем разговор. Скармливать сайтмапы гугле полная фигня. он только их кушает, а индексировать нихрена не хочет. Вывод делаю на основании того, что скормил гугле сайтмапы нескольких доров, потом начал генерить новые доры на другом домене, результат - доры которые генерил два-три дня назад, уже проиндексированы, правда не полностью, и по некоторым кеям в 10-ке выдачи гугли. Доры со скормленным сайтмапом в полной жопе, даже хуже. ни одной страницы в индексе.:(
     
  8. ko-yg

    ko-yg

    Регистр.:
    12 ноя 2008
    Сообщения:
    519
    Симпатии:
    161
    мораль: делать так как делал во втором случает и не забивать себе мозг ;)
    А как ты гуглу карту скормил? в панель вебмастера? это бесполезно. В адурл? тоже самое. Сайтмапы нужно просто в роботсе указать - гугл их сам найдет, а вот в индекс нужно выводить хитростью )
     
  9. t0os

    t0os

    Регистр.:
    21 окт 2007
    Сообщения:
    284
    Симпатии:
    36
    ТС, берешь ресы для разгона. пр5-6 должно хватить, залетаешь в индекс. А там уже как повезет :)
     
  10. Mikhalich

    Mikhalich Создатель

    Регистр.:
    3 фев 2009
    Сообщения:
    47
    Симпатии:
    0
    Век живи - век учись!;)

    Хотелось бы чтоб ты немного приоткрыл завесу тайны :)
    Чесно говоря, как доры попали в индекс, ума не приложу, а тем более на лидирующие позиции: "Результаты 1 - 10 из примерно 283 000 000 для ............." мой дор на втором месте. Как так получилось, не могу понять, т.к. спама как такового не было, только на трёх-четырёх сайтах проставил ссылки. ПР доноров 3-5, но всёравно, непонятно КАК дор вылез среди такого кол-ва конкурирующих запросов. И тем более за два дня.
     
Статус темы:
Закрыта.