GBL вам в помощь: непорядочных вебмастеров в топку

Статус
В этой теме нельзя размещать новые ответы.

kirf

Создатель
Регистрация
13 Авг 2008
Сообщения
23
Реакции
8
На этой неделе занимался чисткой своих проектов в сапе. Возможно, результаты пригодятся кому-то еще.

Вот эти деятели запрещают индексацию сайта через robots.txt:



Тут закрыто через слой: div display: none



Здесь тэг noindex:



Тут вирус:



Эти не знаю как обманывают, но в сапе у них статус ОК, а ссылок просто нет:



Эти повышают цены на 30%-50% в течение дня-недели, при том, что ни PR не повысился, ни ТИЦ, ни средняя цена по больнице не была заниженной, то есть просто нагло и тупо:



Поискал по форуму, не нашел ничего похожего, а ведь наболело, друзья мои - чем больше ссылок ты покупаешь, тем сложнее отслеживать честность, а значит, тем больше денег уходит в ... Думаю, если некоторые из нас будут выкладывать такие свои списки, то, при условии доверия к такому пользователю со стороны форума, они будут очень полезны. Понимаю, что я - новичок, так что - себе я буду и дальше копить, а сообществу выкладывать раз в неделю-две - по степени заинтересованности.
 

Вложения

  • gbl20080929.rar
    283 байт · Просмотры: 3
  • Заблокирован
  • #2
robots.txt и noindex - сапа ж должна такое фильтровать...

div display: none - пользователи не увидят, поисковики найдут. Плохо, конечно, но не фатально

Эти повышают цены на 30%-50% в течение дня-недели, при том, что ни PR не повысился, ни ТИЦ
а вот за такое надо бить канделябром по лицу

Вцелом, начинание хорошее. Может, на днях поддержу ;)
 
robots.txt и noindex - сапа ж должна такое фильтровать..
.
поидее в сапе есть функция у оптимизаторов, выбрать не проиндексируемые сайты в яндексе, но она совсем бесполезна, так видно и тут
 
robots.txt и noindex - сапа ж должна такое фильтровать...
видимо, токо на этапе индексации :(
а после нее страница просто висит в базе и мониторинг ее состояния отдается на откуп оптимизатору
 
черкнул бы в поддержку
пусть этих деятелей там забанят
 
видимо, токо на этапе индексации
а после нее страница просто висит в базе и мониторинг ее состояния отдается на откуп оптимизатору

Нет, ссылки постоянно проверяются на доступ к ним поисковых систем. Один раз напутал с роботс, всё ушло в error. :(

А так толк от этой темы минимален, площадок для размещения несколько десятков тысяч, и они постоянно удаляются появляются новые, вручную оптимизатору на основе чёрных списков проверять, геморрой ещё тот.

ЗЫ: От меня neotorg.ru постоянно заполняет все места whait'ами, ссылки не покупает, пришлось в GBL добавлять.
 
Все же лучше хоть какой никако ГБЛ, если каждый внесет свою лепту - можно будет составить серьезный список.
Если б кто-то взялся за организацию такового, то есть, кто-то что-то нарыл, ему отправил он проверил и обновил списочек...Было б неплохо... мечты..мечты :)
 
  • Заблокирован
  • #9
Все же лучше хоть какой никако ГБЛ, если каждый внесет свою лепту - можно будет составить серьезный список.
Если б кто-то взялся за организацию такового, то есть, кто-то что-то нарыл, ему отправил он проверил и обновил списочек...Было б неплохо... мечты..мечты :)

Ну так и возьмитесь за эту важную задачу ;)

По делу: еще один источник для GBL (читать в конце поста, линки на файловые хостинги уже отвалились)
 
.
поидее в сапе есть функция у оптимизаторов, выбрать не проиндексируемые сайты в яндексе, но она совсем бесполезна, так видно и тут
в сапе эта функция работает коряво,
есть сайты которые на 100% в индексе, а сапа кажет что 1 страница и наоборот,
лучше самому все проверять,
и индексацию страниц
и индексацию ссылок после 2-3 недель,
к тому же есть туча софта который это позволяет делать
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху