из-за опечатки в robots почти весь контент запретился к индексации, что будет?!

Статус
В этой теме нельзя размещать новые ответы.

tirrex

Гуру форума
Регистрация
9 Ноя 2008
Сообщения
213
Реакции
62
Всем привет.
случайно пропустил в директиве robots'а один символ, в результате запретил к индексации 90% страниц сайта :ah:
после последнего апдейта яндекс удалил их из базы и вывел огромное количество сообщений об ошибках
теперь, конечно, все исправлено, но индекс восстанавливаться не спешит и Платоны молчат...
Кто-нибудь сталкивался с подобным?
как действуют ПС в таких случаях?
 
Втечении месяца - двух всё востановится. Удали из яндексвебмастер карту сайта и через денёк другой отправь новую
 
Время лечит.
В даном случае нужно только ждать.
 
А что Вы написали такого в robots? Можно выложить ошибку?
 
Обычно 2,5 месяца и все восстановится, в редких случаях (раз у меня такое было) затягивается и на 4 месяца, - тогда лучше, конечно, написать им.
 
боты первым делом ломятся в роботс, поэтому исправляем ошибу и ждем, страницы должны вернуться в индекс быстрее чем пропадут сообщения из инструментов ВМ (Яндекс, Гугл).

Я при помощи инструментов ВМ удалял страницы, в индекс возвращались долго (1-1,5 мес), файл роботс ни такой страшный ход, поэтому думаю что в течении месяца вернутся
 
неа, сейчас что-то с Яндексом, сильно тормозит на индексации. Я больше месяца назад на одном форуме переделал кой-какой код и вывод "ноиндекс" в метатэгах на одном форуме, и после этого убрал запреты в "роботс" (а то яндекс не все ссылки из роботс корректно обрабатывает). Так он и не думает индексировать, и мало того - висят ошибки которые были исправлены чуть ли не пол-года назад.
Это не говоря про два новых сайта с абсолютно уникальным контентом, которым уже больше месяца и которые есть везде кроме яндекса :mad:
 
А что Вы написали такого в robots? Можно выложить ошибку?

нужно было убрать из индекса URL'ы с параметрами
т.е. напечатал
Disallow: /page
вместо
Disallow: /page=
а "page" есть почти во всех адресах :(
 
неа, сейчас что-то с Яндексом, сильно тормозит на индексации. Я больше месяца назад на одном форуме переделал кой-какой код и вывод "ноиндекс" в метатэгах на одном форуме, и после этого убрал запреты в "роботс" (а то яндекс не все ссылки из роботс корректно обрабатывает). Так он и не думает индексировать, и мало того - висят ошибки которые были исправлены чуть ли не пол-года назад.
Это не говоря про два новых сайта с абсолютно уникальным контентом, которым уже больше месяца и которые есть везде кроме яндекса :mad:

То же самое наблюдаю. Но что интересно, есть сайт, где должно быть было проиндексированно лишь несколько главных страниц. Случайно удалил robots.txt и все страницы попали в индекс. Недавно это заметил, то востановил файл и страницы из индекса вылетели за две недели. В обратную сторону все работает. ) Лучше бы наоборот. :)
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху