Как удалить из кэша Яши страницы?

Тема в разделе "Вопросы новичков", создана пользователем danneo, 11 окт 2013.

Статус темы:
Закрыта.
  1. danneo

    danneo Честный

    Регистр.:
    13 ноя 2007
    Сообщения:
    1.418
    Симпатии:
    109
    Случилась такая ерунда:
    переносил сайты на другой хостинг. Два сайта на ДЛЕ. Случайно дамп от одного сайта залил на другой. И на сайте был контент с другого сайта несколько дней. Базу, разумеется заменил.
    Яндекс страницы проиндексировал. Теперь висят в кэше.
    Написал в сапорт, что так вот произошло, что с Яши посетителей вообще нет на сайте. Попросили запросы, по которым раньше заходили пользователи. Уже давненько ни ответа, ни привет от сапорта.
    Можно как-то удалить их из кэша? А то уже долго висят-то. А Яша переиндексировать восстановленный сайт не хочет.
     
  2. t0wer

    t0wer BlackHerald

    Регистр.:
    24 июн 2008
    Сообщения:
    731
    Симпатии:
    421
    Через http://webmaster.yandex.ru/delurl.xml
     
  3. danneo

    danneo Честный

    Регистр.:
    13 ноя 2007
    Сообщения:
    1.418
    Симпатии:
    109
    пишет, что сайт не отдает 404, а значит нет повода удалять...
     
  4. Stas-P

    Stas-P

    Регистр.:
    7 сен 2013
    Сообщения:
    165
    Симпатии:
    125
    У меня была похожая ситуация, была закэширована старая версия сайта.
    В общем боролся каким способом, отлавливал в Я.Вебмастер старые ссылки и делал редирект на новые страницы.
    Тех страниц которых не было в новой версии, блокировал индексацию в robots.txt

    Правда пришлось подождать, после нескольких апдейтов яши все стало ОК
     
    Последнее редактирование: 11 окт 2013
  5. t0wer

    t0wer BlackHerald

    Регистр.:
    24 июн 2008
    Сообщения:
    731
    Симпатии:
    421
    Я Вам написал 3 условия в которых есть волшебное условие "ИЛИ"!!!
    Хотя 404 можно делать искусственно (как, написал оппонент выше).
     
  6. danneo

    danneo Честный

    Регистр.:
    13 ноя 2007
    Сообщения:
    1.418
    Симпатии:
    109
    а может быть есть софтина для сбора url из результата поиска? А то страниц много. Ручками некогда собирать... я бы этот список в noindex занес
     
  7. Stas-P

    Stas-P

    Регистр.:
    7 сен 2013
    Сообщения:
    165
    Симпатии:
    125
    noindex будет мало, уже давно ходят слухи, что noindex тоже индексируется поисковиками. Так что тебе надо будет конкретно или блокировать в robots.txt или делать редирект.

    У тебя подключен Яндекс.Вебмастер? там из статистики можно получить полный список страниц сайта, которые проиндексированы. Далее его можно экспортировать.
    Можно и софтом... думаю для этих целей подойдет любой связанный с SEO. Я к примеру использую SEO PowerSuite. Указываешь адрес сайта, а дальше он сам ищет.
     
  8. danneo

    danneo Честный

    Регистр.:
    13 ноя 2007
    Сообщения:
    1.418
    Симпатии:
    109
    ну да, я имел в виду robots.txt
    но не могу найти кнопку экспорта списка в вебмастере :)
     
  9. _sergey_

    _sergey_ Писатель

    Регистр.:
    1 окт 2008
    Сообщения:
    1.744
    Симпатии:
    1.154
    Вы имеете в виду метатег ноиндекс?

    Не проще, просто отдавать 404 по всем урлам которых нету в базе сайта? И они вылетят достаточно быстро. И собирать урлы не придётся, тем более что они в перемешку с новыми будут. А если в индексе только ненужные страницы - можно весь сайт закрыть от индексации: Disallow: /
    и сами страницы удалить, через неск апов вылетят из индекса. если боты редко сайт посещают, то простимулировать посещение этих страниц ссылками с твиттера и я.ру
     
Статус темы:
Закрыта.