Копии товаров в интернет-магазине с точки зрения seo

Статус
В этой теме нельзя размещать новые ответы.
Только по большому счету если ссылок нет, то как он про них узнает? )
Так что роботом закрывают то что со ссылками внешними но ненужное.
 
Я думаю наврятли будут санкции (у гугла). Тут все будет зависеть от продвижение реса. Если все сделано не плохо в глазах гугла, он посчитает данный сайт полезным для серфера, то тогда ему все равно копии товаров или нет.
 
Если на страницы которые закрыты в роботс.тхт есть ссылки со страниц сайт - это "не очень" правильно ... для гугла.
очень интересно, и как тогда убрать с индекса страницы подготовленные для печати, например.
Никаких санкций за страницы закрытые для индексации ни гугл ни яша не применяют априори...
 
Если на страницы которые закрыты в роботс.тхт есть ссылки со страниц сайт - это "не очень" правильно ... для гугла.
хм и что же тут неправильного? Скажу более, если на эти страницы нет ссылок с других страниц и в сайтмап файл не добавлен урл, то ПС никогда и не узнает о ней :)
 
Я думаю наврятли будут санкции (у гугла). Тут все будет зависеть от продвижение реса. Если все сделано не плохо в глазах гугла, он посчитает данный сайт полезным для серфера, то тогда ему все равно копии товаров или нет.

Как бы качественно не делали дубль=сопли=падение трафика
 
Всем спасибо за ответы. Единогласного мнения нет, как и в других вопросах seo. но решил пока не экспериментировать и создавать копии товаров посредством скрипта
 
Всем спасибо за ответы! Дело в том что адрес копии товара генерируется автоматом webasyst-ом и вручную скрывать от индексации все страницы нереально.
Нашел решение для webasyst: в нем есть возможность указывать доп категорию. Суть в том что можно создать раздел напихать туда существующий товар а все ссылки будут вести в главную категорию. Выход не плохой, осталось только попытаться автоматизировать этот процесс, что не предусмотрено скриптом.
Вывести тэг rel="canonica" не представляю как для моего скрипта.
p.s. дублирующие страницы просто закрыл от индексации (сортировки по цене, названию, наличию).. как вы думаете это правильно?

Настройте чпу что бы вид был сайт/категория/страница.
 
очень интересно, и как тогда убрать с индекса страницы подготовленные для печати, например.
Никаких санкций за страницы закрытые для индексации ни гугл ни яша не применяют априори...
Если на главную вывалить штук 50 линков на внутренние страницы с адварой и закрыть их в robots.txt "типа от индексации", бот начнет сильно волноваться, о чем ты увидишь ворнинги в webmaster tools - злостный пример (это касается любых линков на любые страницы не только с адварой).

По поводу страниц для печати: юзай мета-тег noindex в шаблоне - в чем проблема? Бот загружает страницу чекает на предмет шляпы, видит тег и проходит мимо. Или юзай rel="canonical".

По поводу санкций: вообще не понял к чему это, они перед тобой лично отчитываются о списках существующих санкций? :) А до яндекса мне вообще дела нет. :)
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху