Как лучше закрыть в noidex дубли контента?

Статус
В этой теме нельзя размещать новые ответы.

Бобр Добр

Профессор
Регистрация
17 Янв 2010
Сообщения
242
Реакции
37
Привет всем! Сейчас все CMS стараются упростить навигацию пользователя, рассортировать все посты по полочкам, рассортировать по рубрикам, тегам...
И получается, что на странице рубрики идёт дублирование контента, (<- ну это все знают
icon11.png
) Парой даже полностью вся статья выводиться на этой странице. Ну и все знают, что дубли контента негативно* влияют на индекс в пс.

Короче ближе к делу. Как закрывать эти страницы полностью прописыванием в robots.txt или в тегах meta или обернув* в noidex лишь дублирующийся контент?
 
Оберни просто в теги ноиндекс и все, я ж так понимаю на этих страницах и полезный контент есть. правильно?
 
укажите вашу CMS...
 
Если страница полностью или большей частью дублируется - нужно закрывать в роботсе.
Если же дублируются только небольшие кусочки текста, то можно вообще не закрывать.
Еще проще почитать о проблемах для конкретной цмс.
 
  • Заблокирован
  • #5
Расширю ответ dos03:
robots.txt наиболее универсателен, поскольку
<noindex> -> работает только для Яндекса
link rel="canonical" -> работает только для гугла
ну а почитать о проблемах для конкретной цмс, советуют потому что, например джумла с ЧПУ при определенных условиях может наплодить мильйон дубликатов.
 
cms Livestreet, но я просто на то что если мы закрываем полностью страницу к примеру в ls это страница blog/blabla/ на ней выводятся список постов, короче как рубрика в wp, то мы теряем вес этой страницы при внутренней перелинковки, я думал оставлять страницу в индексе убирая только дублирующийся контент, ну что бы всётаки она приносила пользу, как говориться с паршивой овцы хоть шерсти клок...
 
*** скрытое содержание ***
вы ls видели? там нет не каких папок роутинг... да дело не в том как закрыть, с этим я сам разберусь, дело в том закрывать всё страницу или только дубли контента?
 
  • Заблокирован
  • #9
Вообще пс смотрит насколько уникальна страница как таковая.
Откуда ей знать, может у вас сервис - сравни два текста и найди 7 отличий.
Другими словами при прочих параметрах сайта нормальных не даст это решающего негатива.
 
Дублирующийся контент в пределах сайта - это не так страшно, как дубль контент с чужих сайтов. Правада могут быть скачки по позициям, ибо поисковики, особенно Яндекс, периодически в топ берут ту или иную страницу. А раскручивать все страницы - дорого(вот дубли и закрывают от индексации).
Если у Вас на дубль страницы не ведут ссылки, то и бояться нечего.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху