Спрятать страницу от робота в джумле

Статус
В этой теме нельзя размещать новые ответы.

tryzna

Создатель
Регистрация
12 Июл 2009
Сообщения
14
Реакции
0
Помогите пожалуйста новичку.
есть сайт на джумле, страниц 70, все уникальные, в топе стоит по нужным запросам в 5 в яндексе и в гугле. Недавно добавил на сайт 5 страниц дублированного текста, планируется еще заливать(рерайтить нельзя, так как договоренность с автором), как этот текст(или страницы) закрыть от поисковика?
сначала думал текст в картинках вставлять, почитал вроде не очень хорошо.
Тогда чем лучше noindex или в robots.txt их указать, как в джумле технически использовать тег noindex? html страницы я чего то не могу найти, все папки перерыл, только в редакторе что то могу в код вставлять - там можно?
если я в этом встроеном WYSIWYG редакторе пропишу так:
<noindex> бла лаа ал - мой текст </noindex> будет работать?
если нет скажите,плз, как правильно запретить страницу в роботс.тхт
адресом таким например:
Для просмотра ссылки Войди или Зарегистрируйся
большое спасибо за понимание
 
Спасибо большое. еще один вопрос
если робот видит страницы закрытые от индексации, а в карте сайта они вроде есть, от поисковика будут какие либо санкции? или он просто обойдет их стороной и все.
 
  • Заблокирован
  • #4
tryzna, всё будет хорошо. Хоть с главной ссылки на эти страницы стоять будут... Просто эти страницы (указаные в robots.txt) не попадут в индекс.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху