Сотни трафа

Тема в разделе "Вопросы новичков", создана пользователем Ranger_Hunter, 12 янв 2012.

  1. Ranger_Hunter

    Ranger_Hunter Постоялец

    Заблокирован
    Регистр.:
    20 апр 2009
    Сообщения:
    127
    Симпатии:
    48
    Некоторые наблюдения из области добычи фарма-трафа


    По поводу доров наблюдения показали, что лучше всего подходят доры с редиректом. Фарму гугл не жалует, поэтому разница во времени между вылетом кнопочного и редиректного доров незначительная. Редирект js типа такого:

    в шаблоне дора (имеется ввиду шаблон для Jako Pro) перед </head> пишем:
    Код:
    <script type="text/javascript">
    var keyword='[KEYWORD]'.replace(' ','+');
    </script>
    <script src="fucked_google/script.js"></script>
    В папке шаблона создаем папку fucked_google и уже в ней файл script.js:

    Вариант для всяких бидтраффиков и прочих PPC:
    Код:
    var Ref=document.referrer;
    document.write('<script language="javascript">document.location="http://ваша_tds.com/go.php?sid=1&q='+keyword+'"</script>');
    
    Вариант для шопов rx-partners:
    Код:
    var Ref=document.referrer;
    document.write('<script language="javascript">document.location="http://ваша_tds.com/go.php?sid=1&search='+keyword+'"</script>');
    
    В каждом доре в файле robots.txt указываем:
    Код:
    User-agent: *
    Disallow: /fucked_google/
    
    Такие доры нормально лезут в индекс и успевают принести немного качественного трафа, при этом серчер не видит доры в глаза, поэтому можно особо с шаблоном не заморачиваться...




    Гуглобот обленился, спам не хавает. Ищу другие способы вгона в индекс.
    где-то тут на форуме писали про identi.ca и feedburner - что нибудь да сработает...
     
    Urch нравится это.
  2. Levitt

    Levitt

    Регистр.:
    20 май 2008
    Сообщения:
    358
    Симпатии:
    36
    по htaccess лучше отсечь ип ботов, надежнее чем роботсом запрещать
     
  3. idimka

    idimka

    Регистр.:
    31 авг 2007
    Сообщения:
    219
    Симпатии:
    52
    лучше ботов вообще отсекать скриптом на пыхе - ip пробивать через хуиз, если там в данных есть слово google значит отдавать ему белый контент (копипаст)
     
  4. smithws

    smithws

    Регистр.:
    19 июн 2008
    Сообщения:
    481
    Симпатии:
    153
    То есть клоакинг.
    Можешь подробнее описать логику, закажу такой программеру?
    И через какой cервис быстрее пробивать whois для этого?
     
  5. idimka

    idimka

    Регистр.:
    31 авг 2007
    Сообщения:
    219
    Симпатии:
    52
    я использую этот сервис whois-service.ru/lookup/

    логика проста:
    1.получаешь ip посетителя (можно брать не каждый ip а в зависиомсти от юзер агента - я беру каждый, так надежней).
    1.1. проверяешь его в файле (может ты по нему уже пробивал хуиз, чтоб было побыстрее и меньше нагрузки)
    2. загоняешь в любой сервис по хуизу (удобно конечно, если есть api)
    3. в полученной странице от сервиса, просто ищешь слово google (там будут различные вариации, для тестирования возьми любой известный ip принадлежащий гуглу)
    4. еще со страницы выдираешь диапозон ip (там что-то типа того, к какому диапзону принадлежит данный ip, поле называется "inetnum")
    5. отдаешь соответсвующий контент.
    6. записываешь в файл диапазон ip (для гугля в один файл, для яши в другой)
    7. с пополнением ip расширяешь диапазон записанных ипов (так и удобней проверять и хранить)

    можно под это дело переделать любой доступный пхп-скрипт для проверку хуиз (что я и сделал)
     
  6. Levitt

    Levitt

    Регистр.:
    20 май 2008
    Сообщения:
    358
    Симпатии:
    36
    Проверка с парсингом внешнего сервера - лишняя секунда задержки. Собранные базы ИП гугла, яндекса и прочего можна на robtex.com взять по анонсированным и не анонсированным сеткам. для гугла Перейти по ссылке

    Метод ТС имеет право на жизнь, так как может применяться и для простого ХТМЛ.

     
    Юрец, BFox и Ranger_Hunter нравится это.