robots.txt с запрещёнными ненужными поисковиками

Статус
В этой теме нельзя размещать новые ответы.
нужно блочить через .htaccess - надежнее выходит, а через роботс тотже бинг пробивается, например

Тоже придерживаюсь мнения, что через .htacess надежнее... вот небольшой пример (у кого из сеошников в блоге был)

Код:
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} liveinternet [OR]
RewriteCond %{HTTP_USER_AGENT} StackRambler [OR]
RewriteCond %{HTTP_USER_AGENT} WebAlta [OR]
RewriteCond %{HTTP_USER_AGENT} Yanga [OR]
RewriteCond %{HTTP_USER_AGENT} Twiceler [OR]
RewriteCond %{HTTP_USER_AGENT} Flexum [OR]
RewriteCond %{HTTP_USER_AGENT} Aport [OR]
RewriteCond %{HTTP_USER_AGENT} Slurp [OR]
RewriteCond %{HTTP_USER_AGENT} msnbot [OR]
RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR]
RewriteCond %{HTTP_USER_AGENT} libwww-perl
RewriteRule ^(.*)$ - [F,L]
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху