Прогон по каталогам и обратки ??

Статус
В этой теме нельзя размещать новые ответы.
блин, ну если страдать параноей можно все вместе способы попробовать да еще и в ноуиндекс ссылки воткнуть. на фиг только усилия тратить, я вот этого не пойму? ради какой-то дохленькой ссылки, которая в любой момент может отвалится/забанится яндексом...
ps: не помню, в какой теме, но на этом форуме чел писал как поставил самописный скрипт на дедике, который постоянно ищет новый каталоги и сам регистрируется в них. вот это интересное решение :ay:
Я писал. Это сервис прогона, и проблема обраток там оригинально решена. Но, один фиг, Яша каталоги пессит, и сейчас даже после этого прогона выше ТИЦ 30 не удается выскочить. надо пробовать иные пути
 
Искать-то каталоги и постить можно, но вот не кажется ли Вам, что одна вручную обменяная ссылка на нормальном сайте может дать больше и прожить гараздо дольше, чем 20 ссылок с каталогов?
 
Искать-то каталоги и постить можно, но вот не кажется ли Вам, что одна вручную обменяная ссылка на нормальном сайте может дать больше и прожить гараздо дольше, чем 20 ссылок с каталогов?

а где автоматизация? это актуально для оочень белых сайтов и уже пиаристых.
 
Народ Яндекс ввелДля просмотра ссылки Войди или Зарегистрируйся, пока все не опонились наверняка есть восзможно спрятать линкопомойку от Яши и обнануть скрипты проверки обраток?

Кто что думает по этому поводу?

При указании путей директив Allow-Disallow можно использовать спецсимволы '*' и '$', задавая, таким образом, определенные регулярные выражения. Спецсимвол '*' означает любую (в том числе пустую) последовательность символов. Примеры:
User-agent: Yandex
Disallow: /cgi-bin/*.aspx # запрещает '/cgi-bin/example.aspx' и '/cgi-bin/private/test.aspx'
Disallow: /*private # запрещает не только '/private', но и '/cgi-bin/private'

Спецсимвол '$'.

По умолчанию к концу каждого правила, описанного в robots.txt, приписывается '*', например:
User-agent: Yandex
Disallow: /cgi-bin* # блокирует доступ к страницам начинающимся с '/cgi-bin'
Disallow: /cgi-bin # то же самое

чтобы отменить '*' на конце правила, можно использовать спецсимвол '$', например:
User-agent: Yandex
Disallow: /example$ # запрещает '/example', но не запрещает '/example.html'
User-agent: Yandex
Disallow: /example # запрещает и '/example', и '/example.html'
User-agent: Yandex
Disallow: /example$ # запрещает только '/example'
Disallow: /example*$ # так же, как 'Disallow: /example' запрещает и /example.html и /example
 
насчёт русских каталогов, какой user agent они обычно имитируют при проверки обраток?
например если мне yandex не важен, стоит ли просто прикрыть через robots от гуугла, яху и мсн?
 
Я такие каталоги просто игнорирую. Пользуйтесь толкьо белыми каталогами. ПС итак каждый день меняют правила, зачем же свой сайт подставлять линкопомойкой.

Едиснвтенное - иногда можно регить один сайт, а ссылку на каталог указать на другом. Регим помойку на народе и ее загаживаем ответками, а ссылки получаем на основной сайт. Прокатывает не всегда и не везде, но прокатывает.
 
насчёт русских каталогов, какой user agent они обычно имитируют при проверки обраток?
например если мне yandex не важен, стоит ли просто прикрыть через robots от гуугла, яху и мсн?
так оч. просто - ставишь в роботс дизаллоу в конце и в гуглемастертулс запрещаешь этот каталог. Все в шоколаде

Добавлено через 1 минуту
Я такие каталоги просто игнорирую. Пользуйтесь толкьо белыми каталогами. ПС итак каждый день меняют правила, зачем же свой сайт подставлять линкопомойкой.
более 100 сайтов по методике разделения обраток по 15 ссылок на страничку - полгода полет нормльный
Едиснвтенное - иногда можно регить один сайт, а ссылку на каталог указать на другом. Регим помойку на народе и ее загаживаем ответками, а ссылки получаем на основной сайт. Прокатывает не всегда и не везде, но прокатывает.
не катит, сканелинкс это вычисляет на раз
для Яши проще выставить хтаксесс, и с жить спокойно
 
так оч. просто - ставишь в роботс дизаллоу в конце и в гуглемастертулс запрещаешь этот каталог. Все в шоколаде

если просто поставить дизаллоу то роботы каталогов которые косят под яндекс так же не найдут обратной ссылки. Поэтому и спросил какой юзер агент они имитируют чтоб его не прикрывать)
 
если просто поставить дизаллоу то роботы каталогов которые косят под яндекс так же не найдут обратной ссылки. Поэтому и спросил какой юзер агент они имитируют чтоб его не прикрывать)
перечитай как еще разочек ка!
и обрати внимание: против Яши - хтаксесс,
для гоши - дизалоу+вебмастертулс причем дизаллоу в конце роботс.
ЗЫ - седня обнаружил новый IP яшеробота -
наряду с уже известными
YANDEX-BIGSEARCH3
87.250.ххх.ххх
YANDEX-BIGSEARCH2 & Yandex corporate network
213.180.ххх.ххх
появился еще и
spider20.yandex.ru
77.88.ххх.ххх
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху