Вопрос по robot.txt

Статус
В этой теме нельзя размещать новые ответы.

ws256

Гуру форума
Регистрация
14 Июл 2009
Сообщения
257
Реакции
64
Суть такова, есть сайт, на нем страницы, рубрки, метки. Через робот закрыл от индекса страницы и метки для того чтобы исключить дублирующий контент (гугл не отреагировал, что странно, все остальные нормально, но вотпрос не в этом). Это было давно. Теперь хочу раскрыть для поиска одну метку, пишу в роботе:

Код:
Allow: /tag/*метка*/
Disallow: /tag/
Disallow: /page/
Disallow: /author/

Толку нет, времяни прошло больше месяца. Вопрос почему они (например Яндекс) не хотят играть по моим правилам?
 
вот Для просмотра ссылки Войди или Зарегистрируйся, вот Для просмотра ссылки Войди или Зарегистрируйся
Я в курсе.
Пример из мануала:
Код:
User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с '/cgi-bin'
Вывод у меня запрещает скачивать все меки, кроме /*метка*/ и не работает

 
дайте ответ, такая же проблема!
 
Проверь файл роботс на валидность в специализированный сервисах. Попробуй /tag/*метка*/ запихнуть в индекс вручную через яндекс-вебмастер
 
Правильно будет вот так:

Allow: /tags/1$
Disallow: /tag/
Disallow: /page/
Disallow: /author/
 
Я лично для каждого поисковика прописываю условия: для Яндекса, для Гугла, а потом для всех, в итоге получается три конструкции. Так точно можно избежать игнорирования поисковиком роботса. Но вообще говорят, что роботс - это не рекомендация поисковику, поэтому можно и рекомендовать не индексить, но всё равно будет индексить...
 
для каждого поисковика прописываю условия: для Яндекса, для Гугла, а потом для всех, в итоге получается три конструкции
Абсолютно ненужная работа, если все эти конструкции одинаковы.
Есть стандартные правила этого файла, которых придерживаются все ПС и не нужно огород городить.
 
Sunday, например, директива Host есть только у Яндекса, зачем ею кормить другие поисковики?;)
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху