Аффилиат фильтр в яше

Тема в разделе "Русские поисковики", создана пользователем ggnk, 28 апр 2011.

  1. ggnk

    ggnk

    Регистр.:
    30 ноя 2008
    Сообщения:
    236
    Симпатии:
    25
    Не спеша продвигаю СДЛ-сайт по нескольким СЧ-ВЧ запросам, в google.com.ua - занимаю позиции в топ-3, топ-10, в яше по тем же самым - 50+ место...
    Купленные ссылки/статьи проиндексированы и там и там, а движения в яше нет. регион в яше присвоен, а даже по региональному поиску в Яше - нахожусь за 5 страницей результатов.
    Сайту более 4-х лет, контент в основном 100% уник, но есть другие сайты компании с теми же контактными данными, которые могут "подвести" мой сайт под аффилиат фильтр.
    Вопрос такой: кто с аффилиат фильтром сталкивался - афилиированный сайт попадает в бан и вообще выпадает из выдачи или смещается далеко назад, как в случае с моим?
     
  2. komyak

    komyak

    Регистр.:
    4 фев 2009
    Сообщения:
    487
    Симпатии:
    187
    Сайт- 5.6 лет, СДЛ, продвижение сапа и миралинкс.

    гугл.ру - Нужные ключи (вч и сч коммер.запросы) все Топ 1-10
    А в яндексе всё так же плохо. Правда с региональной выдачей получше. Проблемы начались ~ в феврале. После усиленного продвижения одного из сайтов компании. Теперь активно закупаю статьи и думаю вывод адреса на всех сайтах, кроме основного сделать через шифрованный ява-скрипт.
    Больше ничего на ум не приходит, хотя могли и конкуренты слить.
    Но именно фильтр выдачи, т.к. раз-два в неделю добавляется статья и она ~через 12 часов в индексе гугла и ~через 12-36 часов в индексе яндекса. Да и сапа уже месяца 2 желаемого результата не приносит, начал снимать по паре ссылок в день и покупать статьи.
     
  3. ram222

    ram222 Da Vinci

    Регистр.:
    27 апр 2009
    Сообщения:
    748
    Симпатии:
    73
    Я бы тоже боролся с такими компаниями)) на месте поисковика.
    Как вариант- данные контактов в фото, и какие нибудь дополнительные , которых нет на других сайтах, кроме региона конечно.
     
  4. ggnk

    ggnk

    Регистр.:
    30 ноя 2008
    Сообщения:
    236
    Симпатии:
    25
    а разве поисковики не умеют читать ява-скрипты? насчет ссылок(спрятанных в яваскрипте) неоднократно слышал что могут и читают. А вообще идея хорошая, по крайней мере - лучше чем ничего.
     
  5. komyak

    komyak

    Регистр.:
    4 фев 2009
    Сообщения:
    487
    Симпатии:
    187
    и умеют и читают 100%.
    Но это единственный вариант, да и шифрация хоть что-то но даст. Да и выводить можно по фрагментам слова-фразы, вообщем всё решаемо.
    А картинки это не вариант, большинство всё таки данные копируют... ...даже обычные люди...:)
     
  6. HellWorm

    HellWorm

    Регистр.:
    16 май 2007
    Сообщения:
    374
    Симпатии:
    60
    Аффилированный сайт пропадает из выдачи по определённым ключевым словам. К примеру один из сайтов компании попадает в топ по запросу:

    аренда квартир

    Второй улетает далеко, найти невозможно зачастую. Т.е. если сайты компании пересекаются по продвигаемым запросам и оба в поиске находятся, хоть на 50-х хоть на 100-х позициях, то не наложен фильтр. Если один в ТОПе другого нет вообще по этому запросу, то 100% аффилиат.

    Добавлено через 2 минуты
    Очень редко копируют, поэтому единственный вариант делать картинкой. Также влияют данные в Whois, наверняка все домены на одну компанию зарегистрированы, а там и телефон одинаковый, и e-mail и название компании. :)
     
  7. ram222

    ram222 Da Vinci

    Регистр.:
    27 апр 2009
    Сообщения:
    748
    Симпатии:
    73
    Да , про домены хорошо подмечено, если и они под одну компанию...хотя это не факт, домены может купить вебмастер для разных сайтов. Скрипты однозначно поисковики читать умеют, непонятно пока как они этим пользуются.
     
  8. ggnk

    ggnk

    Регистр.:
    30 ноя 2008
    Сообщения:
    236
    Симпатии:
    25
    а запретить в robots.txt посещать страницу с контактами - вариант? или робот все равно посетит то что ему хочется, просто в выдаче исключит эту страницу?
     
  9. HellWorm

    HellWorm

    Регистр.:
    16 май 2007
    Сообщения:
    374
    Симпатии:
    60
    Всё верно ! Robots.txt - это лишь рекомендации для робота, и он в любом случае посетит страницу, загрузит её к себе, но в поисковой выдаче её невозможно будет найти.
     
  10. xd997

    xd997 Писатель

    Регистр.:
    24 ноя 2008
    Сообщения:
    149
    Симпатии:
    61
    снимай все сразу (которые не нужны), выжидай около недели и начинай закупать плавно жирные ссылки + постоянно фигачь статьи + любые ссылки на незначительные внутряки + перелинковка с них на продвигаемые страницы

    промониторь показатель отказов (возможно стоит поработать над сайтом со стороны юзабилити)

    проверь контент на уникальность, проверь на "спамность" тексты продвигаемых страниц

    а лучше стукни мне в аську или скайп или любой IM - посмотрим твою ситуацию повнимательнее
     
    Rustamusss нравится это.