Клоакинг скрипт

Статус
В этой теме нельзя размещать новые ответы.
Непомню что именно прописывать... в .htaccess есть множество настроек... поищи в инете
 

Искал,экспериментировал
RewriteEngine On
RewriteCond %{HTTP_REFERER} Для просмотра ссылки Войди или Зарегистрируйся
RewriteCond %{QUERY_STRING} ^q=(.*)$
RewriteRule ^/$ Для просмотра ссылки Войди или Зарегистрируйся [R,L,NC,NE]
толку никакого,если не считать того что сервак переставал меня пускать:D
посмотрет бы как на редирект хостах устроена переадресация ;)
 
Что касаемо поисковых роботов, то можно использовать проверку на cookie. У робота они устанавливать не будут.
А лучше найти базу IP поисковых ботов. Если у кого есть, выложите плиз. :)
 
вот тут iplists.com есть базы ботов, некоторые обновлялись недавно, а некоторые уже давно, смотрите сами
 
Есть скрипты Ласто. Сайт эмулятор А, В, С. Где-то здесь на форуме пробегали ссылки.
 
кто-то спрашивал - что есть клоакинг :)

Существует два способа клоакинга - по UserAgent и по IP.

Клоакинг с использованием UserAgent

Данный способ использует значение параметра UserAgent, передаваемое серверу при обращении к нему. Каждый из роботов имеет свое имя, и если документ с сервера запрашивается агентом, чье имя есть в списке, то ему выдается оптимизированная страница. Если имени агента нет в списке, то сервер (а, точнее, скрипт) считает, что на сайт зашел человек и показывает нормальную страницу. Вот, в принципе и весь принцип работы скрипта.

Способ эффективен, но не очень надежен. Если используется самодельный броузер с ложным UserAgent, то ему будет показана оптимизированная страница. И наоборот, если поисковая система меняет имя робота (а это делается), то робот увидит реальную страницу сайта. При этом двойным просмотром сайта с разными UserAgent можно уличить владельца сайта в клоакинге, а это самая веская причина для выбрасывания сайта из базы данных поисковой машины.

Клоакинг с использованием IP

Более мощный метод заключается в определении IP посетителя и сравнении его со списком IP, принадлежащих роботам. Это, правда, требует наличия мощной базы данных, постоянно к тому же пополняемой, но зато IP невозможно подделать. Поэтому есть гарантия, что человек не сможет увидить реальную страницу.

Большинство скриптов, осуществляющих клоакинг, работает именно по такому принципу. Как правило, они дорого стоят, в основном, из-за постоянного обновления базы данных по IP роботов.

Пример CGI скриптов.

Для начала зададим массив чужих адресов: @aliens = ('205.204.167.190', '12.13.171.200', '195.161.35.195'); </p>
#Теперь определим вышеуказанные переменные:
$remip = ${ENV{REMOTE_ADDR}};
$proxy = ${ENV{HTTP_VIA}};
$realip = ${ENV{HTTP_X_FORWARDED_FOR}};
#Далее проведём проверку на чужих:
$alienhere = 0;
foreach $address (@aliens) {
if ($remip eq $address || $realip eq $address){
$alienhere = 1;
}
}
#Теперь осталось своему показать одно, чужому - другое:
if ($alienhere == 0) {
print <<OURPAGE;
<html>
<body>
Наши пришли!
</body>
</html>
OURPAGE
} else{
print <<ALIENPAGE;
<html>
<body>
Уйди, прааативный :)
</body>
</html>
ALIENPAGE
}
 
Более мощный метод заключается в определении IP посетителя и сравнении его со списком IP, принадлежащих роботам...

Большинство скриптов, осуществляющих клоакинг, работает именно по такому принципу. Как правило, они дорого стоят, в основном, из-за постоянного обновления базы данных по IP роботов.
+1
Добавлю 5 копеек - замечено, что периодически Гугль ходит под чужим флагом - новым IP и с обычным юзер-агентом. Отследить можно только по поведению и ловушкам. Но это дополнительный гемор.
 
Проблема в том, что достаточно пропустить одного Гугловского шпиона и влетишь в бан. Поэтому списки дело хорошее, но нужны самые свежие.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху