про нововведение яндекса в robots.txt

Статус
В этой теме нельзя размещать новые ответы.

seoadr

Постоялец
Регистрация
22 Апр 2007
Сообщения
128
Реакции
22
к примеру на сайте Для просмотра ссылки Войди или Зарегистрируйся есть следующие страницы:

Для просмотра ссылки Войди или Зарегистрируйся
Для просмотра ссылки Войди или Зарегистрируйся
Для просмотра ссылки Войди или Зарегистрируйся
Для просмотра ссылки Войди или Зарегистрируйся
Для просмотра ссылки Войди или Зарегистрируйся

мне нужно закрыть для индексирования все страницы в названии которых встречается: &cid= (но не ?cid= )

если вот так прописать в robots.txt :

User-Agent: *
Disallow: *&cid=*

яндекс поймёт?
если нет то как надо?
 
  • Заблокирован
  • #2
Да, поймет в связи с последними изменениями алгоритма обработки файлов robots.txt, теперь и гугля и яндекс понимают символы подстановки.

Подробнее о синтаксисе robots.txt для Яндекса:
 
покумекал...
пришел к нескольким решениям своей проблемы:

User-Agent: *
Disallow: /index.phtml?*&cid=

(этот вариант яндекс должен понять, а гугля не знаю)
(из хелпа яндекса:
User-agent: Yandex
Disallow: /add.php?*user=
# запрещает все скрипты 'add.php?' с параметром 'user')


User-Agent: *
Disallow: /*&cid=

(а этот гугля поймёт, а вот яндекс...?)
(из хелпа google:
User-Agent: *
Disallow: /*?

Строка Disallow:/ *? блокирует доступ ко всем URL-адресам со знаком вопроса (то есть, все URL, которые начинаются с имени домена и содержат цепочку, внутри которой встречается знак вопроса).
)

подскажите :thenks: наиболее корректный вариант?
 
  • Заблокирован
  • #4
подскажите наиболее корректный вариант?
один фиг для Яндекса отдельные указания надо прописывать (из-за 'host' например), я бы 2 блока составил один для гугли(user-agent: *), один для яндекса (user-agent: Yandex)
 
В сервисе для вебмастера добавляете сайт, подтверждаете на него права и потмо можете спокойно проверить синтаксис своего robots.txt, какие страницы закрыты от индексации, а какие открыты.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху