Дубли страниц

Тема в разделе "NetCat", создана пользователем zelez2006, 5 авг 2010.

Статус темы:
Закрыта.
  1. zelez2006

    zelez2006 Постоялец

    Регистр.:
    25 июн 2009
    Сообщения:
    65
    Симпатии:
    15
    Обнаружил для себя неприятную вещь. Netcat создает дубли страниц, пример:
    www.site.ru/shop/kronostar/?cur_cc=187&curPos=10
    и
    http://www.site.ru/shop/kronostar/

    как можно избавиться от них?

    мой программист говорит:"есть только идея залезть в исходник browse_messages и переделать вывод самой первой страницы"
     
  2. Delk0

    Delk0

    Регистр.:
    26 мар 2010
    Сообщения:
    284
    Симпатии:
    47
  3. zelez2006

    zelez2006 Постоялец

    Регистр.:
    25 июн 2009
    Сообщения:
    65
    Симпатии:
    15
    как вы себе это представляете?! 2000 страниц в robots пихать?! и при создании каждой новой опять лезть в robots... Не, я не мазохист!!!
     
  4. Phoenix168

    Phoenix168

    Регистр.:
    15 ноя 2007
    Сообщения:
    182
    Симпатии:
    44
    Вероятно имелось ввиду использования регулярок http://htaccess.net.ru/doc/htaccess/syntax.php в .htaccess для родных ссылок netcat.
     
  5. Delk0

    Delk0

    Регистр.:
    26 мар 2010
    Сообщения:
    284
    Симпатии:
    47
    А ссылку я ведь не случайно дал.
    Всего-то почитать и подумать оставалось, а не возмущаться.
    Затем добавить в роботс:
    Disallow: /*?cur_cc=*&curPos=*
    и забыть о проблемах.
     
    zelez2006 нравится это.
  6. zelez2006

    zelez2006 Постоялец

    Регистр.:
    25 июн 2009
    Сообщения:
    65
    Симпатии:
    15
    А для Google и остальных поисковиков это будет работать?
     
  7. rauschen

    rauschen Создатель

    Регистр.:
    23 май 2010
    Сообщения:
    11
    Симпатии:
    0
    Наверное все-таки вот так нужно писать
    Disallow: /*?cur_cc=*&curPos=0
    а то все страницы модуля закрыты будут от индексации, а надо только первую!
     
Статус темы:
Закрыта.