Robots для многодоменного сайта

Статус
В этой теме нельзя размещать новые ответы.

surfman

Старатель
Регистрация
20 Мар 2007
Сообщения
282
Реакции
13
Добрый день.
Как правильно для яндекса(для определения главного зеркала) прописать Robots.txt, когда в одну дирикторию ссылаются несколько доменов, и для каждого домена определить главное зеркало без www?

Так правильно:
User-Agent: *
Disallow:
Host: domen1.ua
Host: domen2.ua
Host: domen3.ua
 
Не совсем понятно. Несколько доменов, которые являются зеркалом одного сайта? Или же для каждого домена создан свой сайт?

В первом случае:
User-agent: Yandex
Disallow:
Host: site.ru

В robots.txt не может быть несколько host.
 
Вот именно. В одной www-дириктории три сайта. Для которого должен быть свой robots.txt.
Уже почитал, что не может быть несколько Host, но как тогда это организовать, может через .htaccess?
 
На зеркалах ставишь .htaccess
Код:
Options +FollowSymLinks
 RewriteEngine on
 RewriteRule (.*) http://host.com/$1 [R=301,L]
а на основном прописываешь в robots
Код:
User-agent: *
Host: host.com
 
Ничего не понял. Еще раз повторю. В одну дирикторию направлены три домена. А установленая CMS внутри своего дерева открывает разный контент для каждого домена.
Но в этой дириктории всего один файл robots, который, естественно, доступен со всех доменов. А нужно, чтобы для каждого домена был отдельный.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху