Как скрыть домен от поисковых систем?

Статус
В этой теме нельзя размещать новые ответы.

AL_ua

Создатель
Регистрация
17 Апр 2009
Сообщения
13
Реакции
0
Почти все стремятся чтобы их сайты были более популярными и регятся на всевозможных поисковиках и каталогах...
Мне же наоборот нужно чтобы нигде в инете мой сайт не светился..
К примеру нигде не регистрируясь когда гуглю то находит много сылок на мой сайт..
Вот собсно вопрос как сделать чтобы поисковики невидели сайт и не индексировали его? и вообще возможно такое?
 
Тут на мой взгляд смешаны 2 понятия. Найти твой сайт могут ведь и по внешним ссылкам, которые кто-то где-то может оставить, и повлиять на этот процесс практически невозможно.
А вот запретить индексацию сайта просто. В корень сайта ложится файл robots.txt с записью проверено, в индекс не идет ничего
 
Почти все стремятся чтобы их сайты были более популярными и регятся на всевозможных поисковиках и каталогах...
Мне же наоборот нужно чтобы нигде в инете мой сайт не светился..
К примеру нигде не регистрируясь когда гуглю то находит много сылок на мой сайт..
Вот собсно вопрос как сделать чтобы поисковики невидели сайт и не индексировали его? и вообще возможно такое?
Запрет индексации через robots.txt не всегда помогает.
Ссылки на тебя на сторонних ресурсах останутся если не попросишь убрать.
Лучше всего сделать редиректами с несуществующими страницами, через htacess пользователя будет перебрасывать на страницу и показывать её а при запросе статуса страницы будет выдаваться ответ 404, в этом случае робот пройдет мимо и не будет её индексировать.

Добавлено через 4 минуты
*** скрытое содержание ***проверено, в индекс не идет ничего
Проверено! В индекс гугла попадают закрытые страницы через роботс, но без тайтлов и снипетта, только с урлами.
 
Что то я очень сомневаюсь. Примеры есть?
такое случается когда уже проиндексированные страницы закрываешь в роботсе, сначала они весят без тайтла и сниппета, а уже потом пропадают
 
такое случается когда уже проиндексированные страницы закрываешь в роботсе, сначала они весят без тайтла и сниппета, а уже потом пропадают
Речь шла не уже проиндексированных страницах, а о попадании сайта в индекс с запретом в роботс.
Лично у меня ничего не попадало. А если бы попадало, то зачем тогда вобще нужна директива disallow.
 
Простой способ, как уже писалось выше, запретить индексацию через robots.txt.
Более извращенный способ - сделать клоакинг таким образом, чтобы при заходе поисковых роботов им выдавалась 404 ошибка, а людям же отдовать нормальный сайт. Но это только если вы хотите чтобы ваш сайт никогда не появился в поисковиках..
 
Можно ещё заключить все страницы сайта в тег <noindex>
 
зачем изобритат велосипед с noindex клокингом и остальным если в самом начале дали самый удобный вариант с robots.txt
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху