Как влияют дубли ссылок

Тема в разделе "Вопросы новичков", создана пользователем feirdog, 15 ноя 2010.

Статус темы:
Закрыта.
  1. feirdog

    feirdog

    Регистр.:
    28 мар 2007
    Сообщения:
    475
    Симпатии:
    29
    Суть в чем. Стоит джумла с sh404sef и разумеется этот компонент делает дубли ссылок. Кто что думает по этому поводу или может у кого несть опыт.
     
  2. _sergey_

    _sergey_ Писатель

    Регистр.:
    1 окт 2008
    Сообщения:
    1.746
    Симпатии:
    1.158
    Вы имеете ввиду, что одни и те же страницы открываются по разным адресам? Если да, то это плохо - все проблемы с банами Джумлы в Яндексе с этим в основном были связаны. Но вроде ЧПУ + настройка 404 ошибки это решает.
     
  3. kp3k

    kp3k

    Регистр.:
    3 окт 2009
    Сообщения:
    403
    Симпатии:
    62
    Я вообще не вижу смысла этого компонента для джумлы. Я использую htacess и не делаю страниц ниже 3-го уровня вложенности. Транслитерацию беру с сервиса Перейти по ссылке

    Дубли ссылок - это плохо.
     
  4. iskif

    iskif

    Регистр.:
    21 авг 2006
    Сообщения:
    325
    Симпатии:
    35
    Ну во первых это вовсе не "разумеется" - по умолчанию любая ссылка формируется один (!) раз. Дубли (вернее, "алиасы", в терминологии этого компонента для волнующего вас вопроса. Duplicates это другое) могут появиться, если вы потом эту автоматическую запись в компоненте sh404sef редактируете.
    Во-вторых, опять же, никаких дублей ссылок по сайту не расставляется. Даже если у ссылки есть алиасы, то работает всё равно только один (при условии, конечно, что компонент сам формирует ссылки и вы в его работу не вмешиваетесь), остальные нужны для того, что если на вашу страницу где то поставили ссылку или она уже проиндексирована ПС, а вы её потом отредактировали, то страница всё равно откроется\не выпадет из индекса.

    Ну и в-третьих, зайдите в Alias manager компонента и посмотрите, скольку у вас этих алиасов. Мне кажется, что ни одного :)

    Добавлено через 8 минут
    Дубли ссылок - это пофиг :)
    Почему число страниц в поиске меньше числа страниц, загруженных роботом?
    Причин, по которым загруженные страницы могут не участвовать в поиске, много - они могут быть дубликатами уже показанных страниц, ...
    (ответ от Яндекса)
     
  5. feirdog

    feirdog

    Регистр.:
    28 мар 2007
    Сообщения:
    475
    Симпатии:
    29
    Да. Алиасов у меня всего два, потому что я в ручную прописал ссылки.
    Спасибо iskif за развернутый ответ.
     
  6. bummm

    bummm

    Регистр.:
    26 июл 2008
    Сообщения:
    443
    Симпатии:
    95
    Мой опыт показал - что лучше не использовать данный компонент.
    Я вроде все настроил отлично, никаких дублей не было. Прошел месяц - смотрю какие страницы проиндексированы - и там оказалось кучу дублей!

    Хотя настраивал так, как писали спецы.

    Гугл проиндексировал еще больше дублей, чем Яндекс.

    Мне потом приходилось в robots.txt засовывать дублированные страницы!

    Будь-те осторожны! И через какое-то время, на всякий случай проверьте проиндексированные страницы в ПС!
     
  7. _sergey_

    _sergey_ Писатель

    Регистр.:
    1 окт 2008
    Сообщения:
    1.746
    Симпатии:
    1.158
    У меня в роботс.тхт такие запреты:
    Disallow: /administrator/
    Disallow: /cache/
    Disallow: /components/
    Disallow: /component/
    Disallow: /images/
    Disallow: /includes/
    Disallow: /installation/
    Disallow: /language/
    Disallow: /libraries/
    Disallow: /media/
    Disallow: /modules/
    Disallow: /plugins/
    Disallow: /templates/
    Disallow: /tmp/
    Disallow: /xmlrpc/
    Disallow: /*rss
    Disallow: /*atom
    Disallow: /?
    Disallow: /*?tmpl
    Disallow: /index.php/
    Disallow: /*?
    Плюс 404 настроена, ну и ЧПУ стоит. Никаких дублей в ПС нет вообще.
     
  8. feirdog

    feirdog

    Регистр.:
    28 мар 2007
    Сообщения:
    475
    Симпатии:
    29
    _sergey_ расскажи как у тебя настроено 404 и какое ЧПУ.
    Так же спасибо за робот.
     
  9. _sergey_

    _sergey_ Писатель

    Регистр.:
    1 окт 2008
    Сообщения:
    1.746
    Симпатии:
    1.158
    ЧПУ - человеко подобный урл. Короче sh404SEF стоит, стандартный. При чём версия старая 1.0.16_Beta - build_222. 404 тоже стандартная из sh404SEF - только страница вывода ошибки вписана в диз сайта и приведёны ссылки на основные страницы. Это всё настраивалось программистом при создании сайта, давно уже. Я только добавил запреты в роботс.тхт чтобы мусор из выдачи убрать. Сайт простой, никаких поисков, голосований, новостей и т.п. не задействовано - у вас ситуация может быть иной.
     
  10. saladinos

    saladinos Создатель

    Регистр.:
    31 май 2009
    Сообщения:
    44
    Симпатии:
    1
    Google сейчас индексирует ссылки закрытые в роботс. Так что не тратьте на закрытие времени
     
Статус темы:
Закрыта.