Можно ли удалить сайт из google webmasters а потом снова добавить?

Статус
В этой теме нельзя размещать новые ответы.
Для начала надо привести впорядок сайт
а то гугл вместо содержания например этой страницы
*** скрытое содержание ***
Так что страницы есть:)
может сначала поставить какой то ЧПУ и привести сайт в порядок,
потом организовать сайтмап
поставить 301 редирект на сайте
и все получится;)

index2.php страницы давно закрыты в роботах, ЧПУ стоит и неплохой, быстрый, сайтмап скормлен, 301 редирект стоит по дублям )

несмотря на всё это как был в соплях так и остаюсь ) видимо гуглю долго привыкать надо к изменениям

Добавлено через 3 минуты
можете в роботс закрыть на день-два (смотрите по GWT), а потом открыть - 100% переиндексация

это интересное предложение! только вот вопрос в том, что гугл очень долго привыкает к изменениям. Чтото я сомневаюсь, что двух дней хватит для полной дизиндексации. Ты такое сам пробовал?

Добавлено через 8 минут
это походу старый урл. к тому же запрещен в роботсе
может попробовать поставить ссылок на сайт для начала. по язлу всего 4 ссылки на сайт. для гугля важно ссылочное.
сайт кроме 5 страниц весь в саплиментал.

вот хреново, что он весь в соплях, хотя контент уникальный в большинстве... всё изза долбаных дублей, которые не пойми как просочились через закрытости в роботах и тп

а что значит "по язлу"?

ссылки начинаю сейчас активно ставить на сайт на разных форумах, посмотрим что будет... думаю надо всетаки послать запрос на пересмотр сайта в гугл
 
можете в роботс закрыть на день-два (смотрите по GWT), а потом открыть - 100% переиндексация

посадил другой сайт в Disallow: / на 3 недели - из яндекса всё стёрло, в гугле же висит и висит
 
У меня такая проблема - случайно в индекс попала куча дублей и изза этого все страницы кроме главной вылетели из выдачи. Хочу удалить весь индекс из Гоши, а потом заново проиндексить, поскольку терять то уже нечего, раз страниц нет в выдаче.
Удаляете дубли, либо при необходимости запрещаете к индексации дубликаты в robots.txt. Удаляете в гугл вебмастере урлы с дубликатами. Ждете переиндексации сайта. Для ее ускорения проставьте несколько внешних ссылок с нормальных ресурсов. Все)
 
Не спешите . Гугл работает медленно. Закройте дубли в роботс и ждите. Я ждал больше двух недель.
 
Удаляете дубли, либо при необходимости запрещаете к индексации дубликаты в robots.txt. Удаляете в гугл вебмастере урлы с дубликатами. Ждете переиндексации сайта. Для ее ускорения проставьте несколько внешних ссылок с нормальных ресурсов. Все)

Что смог удалил. Кучу динамических адресов вида index2.php? удалить вручную постранично - невозможно. Слишком много страниц. В роботсах запретил всё лишнее. Внешние ссылки с хороших ресурсов поставил. Написал всё-таки запрос на пересмотр сайта в инструментах для вебмастеров Google. Посмотрим, что будет )
 
Отправил запрос на пересмотр в Гугл, через неделю они ответили, что проверили сайт, но ничего не изменилось - сайт также весь в сапплиментал.

Провел эксперимент: удалил весь сайт через инструмент для удаления url Google webmaster. Сайт исчез в индексе в течение суток. После этого снова добавил на индексацию - результата нет уже 2 недели. Сайта до сих пор нет в индексе. Прочитал, что ссылки удаленные через Гугл вебмастер не появляются в индексе 90 дней. Получается сайт попал на 3 месяца?

Отправил повторный запрос на пересмотр, попросил разрешить страницам сайта снова начать индексироваться с нуля, но вот 2 недели уже они не отвечают. И почему то в rambler-е тоже исчез весь индекс.

Думаю стоит ли отменить удаление сайта и вернуть тот грязный индекс, который весь в соплях? В инструментах есть такая опция "Включить повторно" на уже удаленном адресе.
 
В общем, не дождался я когда после удаления сайта Google выполнит повторный запрос на пересмотр и отменил удаление. И после этого через день Google прислал мне ответ, что пересмотрел мой сайт :) Вывод: не бойтесь слать гуглу запросы на пересмотр и даже повторно. Просто срок выполнения первого запроса у меня был 7 дней, а второго 10, а я уже испугался, что его вообще не будет.

В общем после отмены удаления и повторного пересмотра сайта, в индексе вместо 1200 страниц с кучей дублей осталось 500, что уже намного лучше. Хотя из этих 500, где-то 300 вообще левые закрытые в роботсах динамические страницы. Опять както просачивается куча страниц минуя запреты роботов.

Раньше в выдаче гугла вообще не было страниц кроме главной, теперь же с огромным скрипом по невесть каким соображениям, некоторые низкочастотные запросы выдают дочерние страницы сайта, что тоже хорошо.

В общем, гугл - это просто какойто кошмар. Опустить в помойную яму страницы с уникальным контентом - для него как раз плюнуть.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху