Подскажите в чем проблема?

Статус
В этой теме нельзя размещать новые ответы.
Данная фраза на каком языке и что она означает по-русски?


Закусывать не пробовал?


Вот когда ты сможешь нормально объяснить, что произошло, тогда тебе смогут дать нормальный совет. Нормальное объяснение в твоих интересах.


Просто офигительный ответ! Накручиваешь посты?

Я сомневаюсь, что сможешь в данном случае предложить вариант, который ему поможет сразу. А с сайтом котрый раскручивается как говорят по "белому", по другому никак, кроме как работать над сайтом и ждать резалтов от апдейта до нового, это ж не дор (проспамил и сразу вылетел), а потом думаешь че ж с ним стало:D
 
Я сомневаюсь, что сможешь в данном случае предложить вариант, который ему поможет сразу. А с сайтом котрый раскручивается как говорят по "белому", по другому никак, кроме как работать над сайтом и ждать резалтов от апдейта до нового, это ж не дор (проспамил и сразу вылетел), а потом думаешь че ж с ним стало:D
Дорогой мой друг, запомните раз и на всегда: Google - это один сплошной апдейт. Попадание сайта под фильтры или в бан, как выход из под санкций никак не привязан ни к апдейтам выдачи (которые происходят несколько раз в день), ни тем более к апдейтам PR. А разделение методов на "черные" и "белые" оставьте сотрудникам отделов борьбы со спамом...

В индексе 844, это примерно 65% всех страниц, но там много дублей получается, т.к. на странице находятся и Категории и Облако Тэгов. В supplemental results, показывается 75%.
Могу предположить, что из 35%, не попавших в индекс, много новых страниц (не старше недели), которые еще просто не включили в индекс и масса навигационных страниц (Google их теперь совсем не любит). А вот 75% supplemental - это очень хреново. Фактически боьшая часть сайта в поиске не участвует... Причина действительно в дублируемом контенте. Как я сказал бороться с этим можно только повышая PR страниц сайта.
 
  • Нравится
Реакции: BFox
cherchan, спасибо. Не буду бросать, продолжу работу) Это как расплата за быстрый pr прямо..))

Добавлено через 4 минуты
Хм.. сейчас глянул через _http://www.google.com/search?q=site%3Adomain+-inallurl%3Adomain&filter=0 страницы которые находятся в главном индексе, не суплементированные, там есть все статьи, и страницы с тэгами, т.е. все чтобы раньше в поиске и "поидее" есть. Но видать где-то очень далеко...
 
Ни Google, ни Яндекс НЕ игнорируют правильно прописанные директивы robots.txt. Другое дело, что возможны "задержки" в их исполнении. Связанно это с тем, что исполнение директив всеми роботами происходт уже после сканирования, т.е. бот сначала скнаирует страницы, а уже потом смотрит, можно их добавлять в индекс или нельзя. Ну а чтобы совсем подстраховаться, не следует ставить на такие страницы ссылки со страниц сайта.
 
база яндекса имеет кластерную систему, т.е. если 1 сервак яндекса загружен, то твой запрос полетит на другой, соответственно в выдаче твоего сайта может и не быть :)
 
заметил сейчас, что robot.txt был неправельный, лишние строки могут как-то повлиять на индексацию, или просто игнорируются?
 
Смотря о каких строках идет речь. Что очно может повлиять, так это не правильно названный файл: должно быть robots.txt
 
robots robots) Хм.. а строка Allow: / должна быть обязательно? А то я прописал User-agent: * и потом начал писать Disallow
 
Нет инструкции Allow, есть только Disallow. Файл robots.txt ничего не разрешает, а только запрещает!
 
Как правильно составить роботс можно почитать например здесь: Для просмотра ссылки Войди или Зарегистрируйся

Лишние (неправильные) строки игнорируются..
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху