Как влияют дубли ссылок

Статус
В этой теме нельзя размещать новые ответы.

feirdog

Мастер
Регистрация
28 Мар 2007
Сообщения
506
Реакции
33
Суть в чем. Стоит джумла с sh404sef и разумеется этот компонент делает дубли ссылок. Кто что думает по этому поводу или может у кого несть опыт.
 
Суть в чем. Стоит джумла с sh404sef и разумеется этот компонент делает дубли ссылок. Кто что думает по этому поводу или может у кого несть опыт.
Вы имеете ввиду, что одни и те же страницы открываются по разным адресам? Если да, то это плохо - все проблемы с банами Джумлы в Яндексе с этим в основном были связаны. Но вроде ЧПУ + настройка 404 ошибки это решает.
 
Суть в чем. Стоит джумла с sh404sef и разумеется этот компонент делает дубли ссылок. Кто что думает по этому поводу или может у кого несть опыт.



Дубли ссылок - это плохо.
 
Суть в чем. Стоит джумла с sh404sef и разумеется этот компонент делает дубли ссылок. Кто что думает по этому поводу или может у кого несть опыт.

Ну во первых это вовсе не "разумеется" - по умолчанию любая ссылка формируется один (!) раз. Дубли (вернее, "алиасы", в терминологии этого компонента для волнующего вас вопроса. Duplicates это другое) могут появиться, если вы потом эту автоматическую запись в компоненте sh404sef редактируете.
Во-вторых, опять же, никаких дублей ссылок по сайту не расставляется. Даже если у ссылки есть алиасы, то работает всё равно только один (при условии, конечно, что компонент сам формирует ссылки и вы в его работу не вмешиваетесь), остальные нужны для того, что если на вашу страницу где то поставили ссылку или она уже проиндексирована ПС, а вы её потом отредактировали, то страница всё равно откроется\не выпадет из индекса.

Ну и в-третьих, зайдите в Alias manager компонента и посмотрите, скольку у вас этих алиасов. Мне кажется, что ни одного :)

Добавлено через 8 минут
Дубли ссылок - это плохо.

Дубли ссылок - это пофиг :)
Почему число страниц в поиске меньше числа страниц, загруженных роботом?
Причин, по которым загруженные страницы могут не участвовать в поиске, много - они могут быть дубликатами уже показанных страниц, ...
(ответ от Яндекса)
 
Да. Алиасов у меня всего два, потому что я в ручную прописал ссылки.
Спасибо iskif за развернутый ответ.
 
Мой опыт показал - что лучше не использовать данный компонент.
Я вроде все настроил отлично, никаких дублей не было. Прошел месяц - смотрю какие страницы проиндексированы - и там оказалось кучу дублей!

Хотя настраивал так, как писали спецы.

Гугл проиндексировал еще больше дублей, чем Яндекс.

Мне потом приходилось в robots.txt засовывать дублированные страницы!

Будь-те осторожны! И через какое-то время, на всякий случай проверьте проиндексированные страницы в ПС!
 
У меня в роботс.тхт такие запреты:

Плюс 404 настроена, ну и ЧПУ стоит. Никаких дублей в ПС нет вообще.
 
_sergey_ расскажи как у тебя настроено 404 и какое ЧПУ.
Так же спасибо за робот.
 
Google сейчас индексирует ссылки закрытые в роботс. Так что не тратьте на закрытие времени
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху