Как лучше закрыть в noidex дубли контента?

Тема в разделе "Вопросы новичков", создана пользователем Бобр Добр, 27 янв 2011.

Статус темы:
Закрыта.
  1. Бобр Добр

    Бобр Добр

    Регистр.:
    17 янв 2010
    Сообщения:
    242
    Симпатии:
    37
    Привет всем! Сейчас все CMS стараются упростить навигацию пользователя, рассортировать все посты по полочкам, рассортировать по рубрикам, тегам...
    И получается, что на странице рубрики идёт дублирование контента, (<- ну это все знают[​IMG]) Парой даже полностью вся статья выводиться на этой странице. Ну и все знают, что дубли контента негативно* влияют на индекс в пс.

    Короче ближе к делу. Как закрывать эти страницы полностью прописыванием в robots.txt или в тегах meta или обернув* в noidex лишь дублирующийся контент?
     
  2. ashotik

    ashotik

    Регистр.:
    7 авг 2008
    Сообщения:
    176
    Симпатии:
    20
    Оберни просто в теги ноиндекс и все, я ж так понимаю на этих страницах и полезный контент есть. правильно?
     
  3. zek24

    zek24

    Moderator
    Регистр.:
    14 ноя 2009
    Сообщения:
    778
    Симпатии:
    233
    укажите вашу CMS...
     
  4. dos03

    dos03 -----

    Регистр.:
    9 мар 2007
    Сообщения:
    871
    Симпатии:
    428
    Если страница полностью или большей частью дублируется - нужно закрывать в роботсе.
    Если же дублируются только небольшие кусочки текста, то можно вообще не закрывать.
    Еще проще почитать о проблемах для конкретной цмс.
     
  5. Firstborn

    Firstborn Писатель

    Заблокирован
    Регистр.:
    22 июл 2009
    Сообщения:
    64
    Симпатии:
    21
    Расширю ответ dos03:
    robots.txt наиболее универсателен, поскольку
    <noindex> -> работает только для Яндекса
    link rel="canonical" -> работает только для гугла
    ну а почитать о проблемах для конкретной цмс, советуют потому что, например джумла с ЧПУ при определенных условиях может наплодить мильйон дубликатов.
     
  6. Бобр Добр

    Бобр Добр

    Регистр.:
    17 янв 2010
    Сообщения:
    242
    Симпатии:
    37
    cms Livestreet, но я просто на то что если мы закрываем полностью страницу к примеру в ls это страница blog/blabla/ на ней выводятся список постов, короче как рубрика в wp, то мы теряем вес этой страницы при внутренней перелинковки, я думал оставлять страницу в индексе убирая только дублирующийся контент, ну что бы всётаки она приносила пользу, как говориться с паршивой овцы хоть шерсти клок...
     
  7. evraya

    evraya Читатель

    Заблокирован
    Регистр.:
    3 авг 2010
    Сообщения:
    251
    Симпатии:
    296
    Можно сделать так:

    1. поместь нужную часть страницы в iframe
    2. все ifram'ы сложить в одну папку
    3. запретить индексацию папки с помощью роботс.тхт


    Работать будет и для Гугла, и для Яши.

     
    Firstborn нравится это.
  8. Бобр Добр

    Бобр Добр

    Регистр.:
    17 янв 2010
    Сообщения:
    242
    Симпатии:
    37
    вы ls видели? там нет не каких папок роутинг... да дело не в том как закрыть, с этим я сам разберусь, дело в том закрывать всё страницу или только дубли контента?
     
  9. evraya

    evraya Читатель

    Заблокирован
    Регистр.:
    3 авг 2010
    Сообщения:
    251
    Симпатии:
    296
    Вообще пс смотрит насколько уникальна страница как таковая.
    Откуда ей знать, может у вас сервис - сравни два текста и найди 7 отличий.
    Другими словами при прочих параметрах сайта нормальных не даст это решающего негатива.
     
  10. fima32

    fima32

    Регистр.:
    25 дек 2007
    Сообщения:
    201
    Симпатии:
    13
    Дублирующийся контент в пределах сайта - это не так страшно, как дубль контент с чужих сайтов. Правада могут быть скачки по позициям, ибо поисковики, особенно Яндекс, периодически в топ берут ту или иную страницу. А раскручивать все страницы - дорого(вот дубли и закрывают от индексации).
    Если у Вас на дубль страницы не ведут ссылки, то и бояться нечего.
     
Статус темы:
Закрыта.