sitemap google webmaster

Статус
В этой теме нельзя размещать новые ответы.
Для нормальной индексации карту нужно разбивать по 1000. Считается что для гугла большие карты не проблема (о чем где-то в гугле написано), но проблемы все-таки есть.

Yahoo может за большую карту подарить фильтр и выкинуть страницы.

Выход:
Разбиваем карту по 1000 и каждую прописываем в robots.txt, все карты скармливаем через инструменты. Новые страницы в новой карте.
 
Народ, сорри за оффтоп, но уже устал искать и толком ничего нет вразумительного. Скажите чем Вы генерируете карту для Гугля (sitemap.xml), я по всякому пробовал, и каждый раз пишет ошибка: раньше все работало и не было никаких ошибок, а теперь полная лажа. Карты генерил и скриптом и софтом и сервис пробовал, нифига все равно пишет ошибка. Может кто подсказать, чем сгенерить правильноую карту, повидимому вверху нужно прописать тип карты и шаблон по которому ее считывать, но не катит.

А если будет у кого минутка, может скините свою рабочую карту страницы можете удалить, мне главное надпись сверху... думаю все дело в этом.

Вот такая шапка сейчас... но толку нет:
Код:
<?xml version="1.0" encoding="UTF-8" ?> 
- <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.google.com/schemas/sitemap/0.84 http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
- <url>
  <loc>http://google.com/</loc> 
  <changefreq>daily</changefreq> 
  <priority>0.50</priority> 
  </url>
 
Народ, сорри за оффтоп, но уже устал искать и толком ничего нет вразумительного. Скажите чем Вы генерируете карту для Гугля (sitemap.xml)
Генерирую потом выбрасываю лишнее или добавляю
Гуугл кушает, ошибок нет

Шапка:
PHP:
<?xml version="1.0" encoding="UTF-8"?>
<urlset
      xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
      xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
      xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9
            http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">

<url>
  <loc>http://www.domen.com/</loc>
  <priority>0.5</priority>
  <changefreq>daily</changefreq>
</url>
 
Пользуюсь программой gsitecrawler. Создаю карту сайта на денвере, проверяю все. Что интересно, порой вылазят такие урлы, что потом, час ищеш, где баг в выводе скрипта.
Очень удобные настройки + руссифицирована. Можно работать как на локале, так и на сервере.
 
Для нормальной индексации карту нужно разбивать по 1000. Считается что для гугла большие карты не проблема (о чем где-то в гугле написано), но проблемы все-таки есть.
....
Выход:
Разбиваем карту по 1000 и каждую прописываем в robots.txt, все карты скармливаем через инструменты. Новые страницы в новой карте.

А не проще тогда создать индексную карту как советует сам гугл?

Код:
<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.google.com/schemas/sitemap/0.84"
	xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
	xsi:schemaLocation="http://www.google.com/schemas/sitemap/0.84
	http://www.google.com/schemas/sitemap/0.84/siteindex.xsd">
   <sitemap>
      <loc>http://site.ru/sitemap_1.xml</loc>
   </sitemap>
   <sitemap>
      <loc>http://site.ru/sitemap_2.xml.gz</loc>
   </sitemap>
   <sitemap>
      <loc>http://site.ru/sitemap_3.xml.gz</loc>
      <lastmod>2007-12-10</lastmod>
   </sitemap>
   </sitemapindex>
 
Спасибо всем за советы, оказывается ошибка была в том, что несколько урлов было без приставки "www" поэтому выдавало ошибку, пока пользуюсь GsiteCrawler, но очень медленно, на сайт с 1k страниц уходит более 2 часов, а у кого как? Может есть скрипт, такой? Я вчера искал тут на Нулледе, вроде что-то выложено, но сразу указали, что данное чудо может положить весь сервер, не знаю, может там с наворотами, по сути то нужно просто чтоб скрипт пробежался по ссылкам, сайта и все.
 
sitemap.xml хавает только гугль? или еще кто?

и насколько велик толк в этом файле?
 
sitemap.xml хавает только гугль? или еще кто?
и насколько велик толк в этом файле?
Еще - Yahoo и MSN. Толк в том, что поисковик увидит все урлы твоего сайта и лучше, и быстрее будет индексировать. Особенно если сайт часто обновляется (блоги, новостные ресурсы и т.п.) или на сайте много страниц.
 
хорошая тулза a1 sitemap generator - триал на 30 дней - потом сносите переставляете и работаете дальше )))
 
Что-то я рано обрадовался, опять ошибки чтоб их, но они только на одном сайте, как ни пытался так и не смог догнать в чем дело, вчера или когда я там добавил карты, Гугля прошелся по ним все нормал ОК принято столько то урлов, я обрадовался, сегодня смотрю на всех картах ОШИБКИ, блин но вчера же работало, сперва подумал что хост типа был недоступен, но вроде все работает и карты видно и загружаются из браузера, отправил я их еще по 2 раза, но опять Ошибки, в подробная инфа пишет:

Сеть недоступна: Невозможно получить доступ к файлу robots.txt
При попытке получения доступа к вашему файлу Sitemap возникла ошибка. Убедитесь в том, что Sitemap соответствует нашим правилам и к нему можно получить доступ в указанном местоположении, а затем выполните повторную отправку.

Причем тут Robots и Сайтмап недогоню, но на всякий проверил htaccess и robots вроде ничего лишнего, никаких хаков нет, у Гугля сказано, что можно прописать сайтмап в Роботс, так тоже сделал, но результат тот же...

Скажите кто-нибудь с таким сталкивался, в чем может быть тут дело? Сайтмапы с другого хоста живут нормально. Проблема думаю именно в хостинге... Суппорта поругать???
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху