sitemap google webmaster

Тема в разделе "Зарубежные поисковики", создана пользователем prokopa, 25 дек 2007.

Статус темы:
Закрыта.
  1. prokopa

    prokopa

    Регистр.:
    27 июн 2007
    Сообщения:
    402
    Симпатии:
    105
    Почему гугл сканирует все страници а индексирует только некоторые?

    здесь
    https://www.google.com/webmasters/tools/sitemap
    Панель инструментов > Файлы Sitemap > Сведения файла Sitemap
    говорится следующее:
    Всего отсканированных URL-адресов в файле Sitemap 4933
    Проиндексированные URL-адреса в файле Sitemap. 1173

    Причем "Ошибок и предупреждений не найдено."

    От чего зависит индексация той или иной страницы, если они уникальны для данного сайта? может он не сканирует их т.к. они не "уникальны" для индекса гугла? т.е. такая запись есть на других сайтах..
     
  2. sergmd

    sergmd Постоялец

    Регистр.:
    3 ноя 2007
    Сообщения:
    85
    Симпатии:
    18
    Гуугл будет выкидывать в индекс их постепенно
    И то есть контент уникальный
     
  3. Igoor

    Igoor Постоялец

    Регистр.:
    27 авг 2007
    Сообщения:
    73
    Симпатии:
    16
    Гугль проиндексирует всё постепенно - сталкивался с этим не раз и это абсолютно (практически - если не стырил весь по глупому) не зависит от контента.
     
  4. prokopa

    prokopa

    Регистр.:
    27 июн 2007
    Сообщения:
    402
    Симпатии:
    105
    мнения расходятся..
    я вот что думаю.. карта сайта-то постепенно растет, т.е. к старым сылкам добавляются новые, может потому и разница между Проиндексированными и Отсканироваными?
    Т.е. зачем индексировать старые если изменений на нет. Вроде логично.
     
  5. StDutch

    StDutch

    Регистр.:
    18 дек 2007
    Сообщения:
    337
    Симпатии:
    116
    А по логам бот у тебя смотрел все 4933 страницы?

    Мой опыт показывает, что в индекс попадает практически каждая страница (сайты с уникальным человеческим контентом, от пары десятков до пары сотен на сайте), плюс всякий мусор (скриптовые страницы). При этом добавление страниц в индекс совпадает с их посещением гугльботом плюс 1-2 дня. Т.е. все, что посещается ботом, попадает в индекс.
     
  6. prokopa

    prokopa

    Регистр.:
    27 июн 2007
    Сообщения:
    402
    Симпатии:
    105
    так. стоп. а "отсканированные" это разве не посещеные страницы?
    Может "отсканированные" надо понимать как отсканированые конкретно в карте сайта, а не на самом сайте?
    Посмотрел логи, бот был на всех 4933 страницах
     
  7. Igoor

    Igoor Постоялец

    Регистр.:
    27 авг 2007
    Сообщения:
    73
    Симпатии:
    16
    prokopa, отсканированые это значит просмотрены роботом, но это не означает внесённые в индекс.
     
  8. prokopa

    prokopa

    Регистр.:
    27 июн 2007
    Сообщения:
    402
    Симпатии:
    105
    это понятно. вот только как именно просмотрены? тупо считаны из карты сайта или еще и с посещением этих самых ссылок роботом. Вот пытаюсь это в логах отследить, поока безрезультатоно :(
     
  9. Igoor

    Igoor Постоялец

    Регистр.:
    27 авг 2007
    Сообщения:
    73
    Симпатии:
    16
    Я думаю что считаны урлы, а не сами страницы, для этож карта и нужна.
     
  10. LIROMO

    LIROMO Создатель

    Регистр.:
    31 авг 2007
    Сообщения:
    26
    Симпатии:
    1
    отсканированных URL-адресов в файле Sitemap 4933
    Это количество URL-адресов в самой карте они не сканируются а просто берутся из карты как общее количество ссылок. Гугл вроде как их постепенно обходит и добавляет.
    Они только недавно добавили возможнось просматривать сколько ссылок заявлено и сколько из них проиндексировано. У меня както странно получилось на прошлой неделе было проиндексировано 224 из 840. А щас опустилось до 195.
     
Статус темы:
Закрыта.