помогите с robots.txt

Статус
В этой теме нельзя размещать новые ответы.

porokh

Создатель
Регистрация
28 Апр 2008
Сообщения
38
Реакции
24
Каким должен быть файл robots.txt чтобы запретить яндексу индексировать весь сайт, а гуглу разрешить?
Как можно это же самое сделать через htaccess?
 
в robot.txt добавь

User-agent: Yandex
Disallow: /
 
Код:
User-agent: *		
User-agent: Yandex
Disallow: /
 
Я конечно много понимаю уже в СЕО, но какой в этом смысл не могу понять, подскажите =)
 
Смысл в том, чтобы запретить роботам поисковых систем индексировать определённые страницы или разделы сайта. Делается это с целью исключения из индекса страниц с дублированным контентом.
 
Думаю людей больше интересует зачем Весь сайт исключать из яндекса.
 
Видимо у автора там что то незаконное...
 
Ну, например на популярном портале есть форма поиска, и Вы вписываете в поиск свой сайт Для просмотра ссылки Войди или Зарегистрируйся - и поисковику скармливаете страницу с результатом поиска и упоминанием вашего сайта.

Многие сеошники до сих пор пользуются такими приёмами. Поэтому имеет смысл закрывать некоторые страницы от поисковиков.
 
Ну, например на популярном портале есть форма поиска, и Вы вписываете в поиск свой сайт Для просмотра ссылки Войди или Зарегистрируйся - и поисковику скармливаете страницу с результатом поиска и упоминанием вашего сайта.
Многие сеошники до сих пор пользуются такими приёмами. Поэтому имеет смысл закрывать некоторые страницы от поисковиков.

XSS-атаки уже не работают. Даже в Яндекс веб-мастер об этом есть информация. Тут не поиск закрывать надо, а дыры латать.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху