Анализ robots.txt

Статус
В этой теме нельзя размещать новые ответы.
Регистрация
3 Июл 2009
Сообщения
275
Реакции
2
В админке сапы сегодня обнаружил ,запрещенные страницы к индексированию.
На стр. яндекс вебмастер выполнил «Загрузить robots.txt с сайта».
Затем добавил страницы (7стр) запрещенные к индексированию.
После проверки перед каждой из этих страниц :
запрещен правилом
/*print=1*

Не пойму как это может быть, эти страницы я добавлял в том же режиме что и остальные.
Подскажите что и как нужно исправить для того что бы и эти страницы проиндексировались.
 
На робот.txt взглянуть можно?
 
запрещен правилом
/*print=1*

Это страница для печати ведь.
Тогда правильно, что закрыто от индексации. Во-первых - дубль контента (если поисковик не склеит), во-вторых если такая страница попадет в выдачу, то посетитель может на нее попасть, на пустую страницу для печати.
 
  • Заблокирован
  • #4
test test test
 
В админке сапы сегодня обнаружил ,запрещенные страницы к индексированию.
На стр. яндекс вебмастер выполнил «Загрузить robots.txt с сайта».
Затем добавил страницы (7стр) запрещенные к индексированию.
После проверки перед каждой из этих страниц :
запрещен правилом
/*print=1*

Не пойму как это может быть, эти страницы я добавлял в том же режиме что и остальные.
Подскажите что и как нужно исправить для того что бы и эти страницы проиндексировались.
удали строчку
Disallow: /*print=1*
она может и без последней звездочки быть
 
Укажите ещё адреса нескольких страниц запрещенных к индексации.
Если в урл-е содержится запрещенный параметр "print=1", то как бы все верно.
 
Получается только для User-agent: Yandex вы закрываете доступ к /*print=1*, а для всех остальных роботов User-agent: * доступ остается открытым.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху