Спам доров. Домен или страницы?

Тема в разделе "Вопросы новичков", создана пользователем morfeus, 31 июл 2008.

Статус темы:
Закрыта.
  1. morfeus

    morfeus Постоялец

    Регистр.:
    25 авг 2007
    Сообщения:
    102
    Симпатии:
    11
    А как вы спамите ваши доры?
    Спамите домен на кот. расположен дор или каждый кей (страницу)?
     
  2. Zmeyman

    Zmeyman

    Регистр.:
    21 авг 2007
    Сообщения:
    235
    Симпатии:
    76
    Карта сайта с рандомным анкором + 20 случайных страниц дора + 50 рандомнымих адалт кеев. Все это в перемешку.
     
  3. harve$ter

    harve$ter Создатель

    Регистр.:
    15 июл 2008
    Сообщения:
    31
    Симпатии:
    9
    да, юзай карты, у гугла есть тулза для генерации карт
     
  4. Veles

    Veles

    Регистр.:
    14 мар 2007
    Сообщения:
    219
    Симпатии:
    106
    Смотря чё за дор) Может у него 20 страниц всего? Зачем тогда карту спамить) Конечно если у него 10К страниц, то нужно карту юзать.
     
  5. morfeus

    morfeus Постоялец

    Регистр.:
    25 авг 2007
    Сообщения:
    102
    Симпатии:
    11
    Вы имеете ввиду спам map.html?
     
  6. Lemansus

    Lemansus Создатель

    Регистр.:
    19 июн 2008
    Сообщения:
    22
    Симпатии:
    1
    да мап.хтмл
     
  7. HolyWanderer

    HolyWanderer

    Регистр.:
    23 июл 2008
    Сообщения:
    187
    Симпатии:
    95
    а если ОЧЕНЬ НЧ запросы, то доры можно и не спамить?
    ну неск. гест для индексации ток.
     
  8. cartochnik

    cartochnik Создатель

    Регистр.:
    13 июл 2008
    Сообщения:
    13
    Симпатии:
    3
    я использую очень нч и нифига!!! спамлю по 1к базы и нифига в индекс не вылазит, так что нч не значит что мало надо спамить!!! проверено мной
     
  9. ximx

    ximx Постоялец

    Регистр.:
    18 июн 2008
    Сообщения:
    67
    Симпатии:
    34
    А какая разница очень нч или вч при индексировании? Индекс имхо зависит от другого...
     
  10. foxman

    foxman Читатель

    Заблокирован
    Регистр.:
    24 июл 2007
    Сообщения:
    177
    Симпатии:
    77
    При НЧ достаточно чтоб заципило индексом = не большой спам, при ВЧ только индекса е достаточно нужен (пам) причем не в дских обьемах с вариациями чтоб не попасть под пески и т.д -
    Не помню откуда брал и ссылку не найду но вот условия
    Под обычной индексацией страниц сайта понимается ситуация, когда бот поисковика заходит по внешней ссылке на какую-то страницу сайта, например на морду, находит там ссылки на внутренние страницы и обходит их тоже, находит на них ещё ссылки на более внутренние страницы и идёт туда. Работает это медленно и печально, есть разные способы помочь ботам в этом нелегком деле.

    1. Добавление всех страниц сайта вручную (либо скриптом) через “аддурилку”, форму на сайте поисковика, куда можно добавить свой сайт. Вроде бы хорошо работает в Яндексе, с Гуглом непонятно, работает ли вообще хоть как-то, может данные оттуда даже никуда не записываются. Прикол: капчу, которую показывает Гугл на странице аддурилки, можно не вводить, работает одинаково. :)

    2. Ротация внутренних ссылок на морде сайта и на других проиндексированных страницах. Классика. Недостаток в том, что зухмашина Гугл не любит, когда уже проиндексированный документ сильно меняется, так что способо не особо хороший и ускорение от него не особо сильное.

    3. Создание ссылочных хтмл карт, хостящихся отдельно, на трастовых хостах. Как разновидность: создание хсс карт - огромных нтмл-портянок с хсс ссылками. Этот способ вроде как даже выращивает ТИЦ в Яндексе. Хакеры, ломающие вордпресс выкладывают такие карты на ломаные хосты, в результате новые сломаные хосты индексируются довольно шустро и формально у них получается бесспамная работа, но на пару лет за неё всё равно могут посадить. :)

    4. Создание хитрых RSS-карт, когда карта ссылок генерится не сразу вся, а симулируется создание RSS-ленты, которая пингуется в пингосервисы. Для индексации тысяч страниц наверное не подойдёт, реализовать такое довольно сложно, зато страницы должны моментально попадать в “быстрый индекс”.

    5. Разбивка ссылок на блоки и сабмит их в различные закладочные сервисы, которых сейчас уже есть несколько сотен. Хорошо тем, что сразу появляется постоянный беклинк, плохо тем что требует реализации довольно сложного скриптового сценария, либо тяжелой ручной работы, там где нет импорта закладок.

    6. Развешивание ссылок на сетях сплогов. Примерно похоже на предыдущий пункт, но легче реализуемо, поскольку сплоги управляются однотипно и их могут быть тысячи (на блоггере и WPMU-сайтах). Опять же, тоже образуются постоянные бэки (пока не снесут сплог).

    7. Принудительное заманивание адсенс-бота на страницу с установленным адсенсом. Как известно, зухмашина Гугл использует некий кэш для индексируемых страниц, так что если страницу прочитает медиа-бот, то про неё будет знать и гугльбот, но неясно поможет ли это индексации. Скорей всего, поможет, скоро буду знать наверняка. :) Показываемый адсенс при этом совсем не обязательно должен принадлежать владельцу сайта, поскольку защиту против показа адсенс объявлений ввели совсем недавно, найти незащищенный код на просторах интернета не составляет никакой проблемы. Ещё хорошо тем, что скорость индексации зависит только от скорости отрисовки страниц браузером, тем более что можно запускать паралленьно несколько процессов.

     
    Los_lolopos, elchegevara и morfeus нравится это.
Статус темы:
Закрыта.