Нюансы с 301ым редиректом

Тема в разделе "Зарубежные поисковики", создана пользователем fairbug, 24 ноя 2014.

  1. fairbug

    fairbug

    Регистр.:
    1 май 2013
    Сообщения:
    185
    Симпатии:
    66
    всем доброго,
    был сайт с урлами вида:
    мой_сайт/view/966, сделали урлы вида:
    мой_сайт/view/bla-bla-bla.html. При запросе первого варианта, сервер отдаёт 301 Moved Permanently с правильным адресом. Косяк в том что в кабинете вебмастера начали появляться дубли, кто сталкивался с подобным и как с этим бороться?
     
  2. _sergey_

    _sergey_ Писатель

    Регистр.:
    1 окт 2008
    Сообщения:
    1.744
    Симпатии:
    1.155
    В роботс.тхт - закройте от индексации старые урлы, к примеру:
    Disallow: /view/*
    Allow: /view/*.html
     
  3. fairbug

    fairbug

    Регистр.:
    1 май 2013
    Сообщения:
    185
    Симпатии:
    66
    Он не все страницы ещё "съел", будет наверное косяк с отвалом страниц уже занимающих хорошие позиции, так как они будут отныне не доступны...
     
  4. winerror

    winerror

    Регистр.:
    9 май 2007
    Сообщения:
    155
    Симпатии:
    29
    Изначально нужно дождаться индексации новых страниц, а вот уже после редирект прописывать. Сейчас точно не помню, но на мой взгляд лучше через htaccess сделать.
     
  5. _sergey_

    _sergey_ Писатель

    Регистр.:
    1 окт 2008
    Сообщения:
    1.744
    Симпатии:
    1.155
    Это не важно. 301 редирект и роботс.тхт запрет на индексацию старых. Можно ещё ссылки на сохранённые копии, твиттером прогнать, чтобы переиндексировались быстрее.
    вот тогда дублей точно не оберёшься и проблем с индексацие тоже, так как с какой стати будут индексир новые вместо старых, если содержание одинаково.
     
  6. Alexsize

    Alexsize En Taro Adun

    Регистр.:
    22 ноя 2007
    Сообщения:
    13
    Симпатии:
    6
    Я в такой ситуации просто жду.
    Гугл кушает новые, а старые потом убирает.
    Любые движения только помешают ему понять редирект.
    Вообще странно, что он дубль показывает.
    Обычно все хорошо проходит.
     
    fairbug нравится это.
  7. fairbug

    fairbug

    Регистр.:
    1 май 2013
    Сообщения:
    185
    Симпатии:
    66
    да, мы в итоге так же поступили и не прогадали, постепенно дубли уходят
     
  8. kp3k

    kp3k

    Регистр.:
    3 окт 2009
    Сообщения:
    403
    Симпатии:
    62
    До того как старые страницы не переклеились на новые, закрывать их в роботс не нужно, иначе гугл не оставит их в индексе с пометкой "Описание этого результата недоступно. Причина – файл robots.txt этого сайта"!
    Если начинают лезть новые дубли - это скорее всего баг движка, который отдает 200 ОК, вместо 404 для страниц, которых не существует. В первую очередь надо поправить это. Возьмите дубль страницы, которая вылезла и проверьте ответ сервера, например тут. Пока "левые" страницы не будут отдавать 404, будут дубли.

    И еще - быстрее работает редирект через meta, чем через htaccess - проверено на практике.
     
    Последнее редактирование модератором: 14 дек 2014
  9. fairbug

    fairbug

    Регистр.:
    1 май 2013
    Сообщения:
    185
    Симпатии:
    66
    kp3k, да уже всё проверили ещё в первые дни, сейчас только наблюдаем как старые уходят потихоньку, правильный ответ был: если движок отдаёт правильный код старой страницы браузеру, в нашем случае это редирект 301, то не надо дёргаться, после переиндексации всё наладится, у нас просто довольно много страниц в гугле проиндексировано (порядка 300к) поэтому медленно происходит.