А вот в принципе, зачем Яша банит ГС?

Тема в разделе "Русские поисковики", создана пользователем venetu, 27 янв 2010.

Статус темы:
Закрыта.
  1. venetu

    venetu

    Регистр.:
    28 мар 2007
    Сообщения:
    735
    Симпатии:
    261
    Какая Яше польза от выкидыша говносайтов из индекса?
    Вебмастеры, конечно, поплачут-поплачут, да и новые ГС пойдут клепать, уже учтя предыдущий опыт. По все более навороченным методикам и алгоритмам, все менее выкупные и все более близкие к СДЛ. Яше в свою очередь тоже приходится отвечать тем же, совершенствовать методики отлова, тратить ресурсы, чего-то там думать, заниматься ручными модерациями..

    А вот какой в этом смысл? Ведь намного проще было бы, выявив ГС по какому-то своему алгоритму, просто запихнуть их в конец выдачи и не слать на них поисковый траф. И ссылки с этих сайтов при ранжировании не учитывать. И все, все довольны. Вебмастеры изо всех сил наращивают тиц, думая что с их сайтом все в порядке, юзеры в поисковике видят реальные СДЛ, т.к. дальше 3й страницы практически не ходят, а те 1.5% что ходят - так тоже не обидятся, в конце-концов Яша как раз и посчитал эти ГС не особо релевантными и поэтому выдал в конце. Покупатели ссылок покупают кота в мешке, т.к. выяснить, повышает ли конкретно эта ссылка твои позиции в выдаче нет никакой возможности - в Панели Вебмастера она показывается, сайт-донор проиндексирован, а влияет она или не она, и как сильно влияет - так этого и сейчас узнать нельзя. В итоге бизнес "продажных ссылок" убивается на корню, остается только прямая продажа - с ресурсов, которые гарантированно хорошие. Ну так а это уже обычная продажа рекламы, она и так есть в виде баннеров - тоже со ссылками.
    Короче по-моему это был бы идеальный вариант для Яши. Не понимаю, почему он так не делает. Какие тут подводные камни? Кто что думает?
     
  2. sergey_prusov

    sergey_prusov

    Регистр.:
    31 окт 2008
    Сообщения:
    205
    Симпатии:
    3
    Вообще Яша не выжимает как продуктивный развивающийся поисковик. У них тупо места не хватает и они удаляют сайты... и так до бесконечности... а вот если бы как гугл все подряд индачили и оставались бы говносайтики то) у меня то они в гугле все а вот с яши выпадают)
     
  3. venetu

    venetu

    Регистр.:
    28 мар 2007
    Сообщения:
    735
    Симпатии:
    261
    Так говносайты ж особо места не просят, переиндексировать их не надо (ну там, может раз в полгода), шерстить индексом тоже можно далеко не каждый раз, а только когда уже юзер листалку листать вовсю начал (по статистике до 3й страницы добираются единицы), а точное количество результатов можно и не выдавать. Гугл вон не выдает, и страниц у него то 20 штук выводятся, а нажмешь на двадцатую - так уже и оказывается что всего 13-я последняя. Шерстит небось маленькое пожмножество и потом экстраполирует. Вот то подмножество и держать, а остальные все ГС пихать в медленный индекс, без "Сохраненной копии", без ничего. Короче не думаю, что проблема в свободном месте, да и стоит оно копейки сейчас.
     
  4. b2farm

    b2farm

    Регистр.:
    17 фев 2008
    Сообщения:
    498
    Симпатии:
    197
    ну тут два очевидных варианта:
    1. не хватает мощностей серверов для индексации всех ГС
    2. самая важная причина, что несмотря на всяческие доводы и прочее ГС передают вес и влияют на ссылочное ранжирование
     
  5. jabbaxatt

    jabbaxatt Добрый модератор

    Moderator
    Регистр.:
    21 янв 2009
    Сообщения:
    878
    Симпатии:
    411
    Обратимся к первоисточникам:

    Александр Садовский. Поисковый спам – это еще и социальное явление. Спамеры на этом зарабатывают, создаются дочерние рынки, например, рынок инструментария для спама. Это огромная сложная структура. Если мы будем бороться с этим явлением только фильтрацией части контента, мы всегда будем отставать на шаг и неизбежно проиграем. У нас будет страдать полнота поиска, а у них – оставаться свобода для маневра в поисках всяких лазеек. Закрывая сайт, то есть воздействуя на этот рынок экономически, мы лишаем спамеров этой свободы маневра. Поэтому закрытие сайта в поиске (в том случае, если мы абсолютно уверены в том, что он «плохой») это еще и социальное явление. Сайт не получит дохода, и неумелые дорвейщики будут вынуждены уйти с рынка.

    Сергей Певцов. Я хочу обратить внимание на то, что и по нашим оценкам около 20% сайтов, появившихся с начала этого года (2009), созданы исключительно для поискового спама. Согласитесь – это ненормально. Эти сайты создают помехи поиску, они не несут абсолютно никакой ценности для пользователя. Разумеется, нам не выгодно появления такого количества бесполезных сайтов. И, разумеется, мы с ними боремся и будем бороться.
     
  6. Tima111

    Tima111 Читатель

    Заблокирован
    Регистр.:
    5 июл 2007
    Сообщения:
    218
    Симпатии:
    486
    Конечно не в ресурсах дело! :D
    Наверное Яндексу проще забанить сайт, а не каждый раз смотреть учитывать с него ссылки или нет (есть он в чёрном листе или нету).
    Ваша мысль понятна: у вас есть ГС, но без индекса (в Яндексе), не покупают страницы. А так всё было бы в шоколаде. Делай ГС а дальше пусть оптимизаторы парятся :)
    А может Яшка оптимизаторам помочь хочет :D
    Интересно было бы взглянуть на ваш забаненный ГС ;)
     
  7. tarkut

    tarkut

    Регистр.:
    26 авг 2008
    Сообщения:
    312
    Симпатии:
    69
    Все навного, намного проще. Главная цель Яндекса: показать релевентный запрос пользователю(т.е если человек ввел запрос, он хочет получить соответствующий инересный сайт по этому запросу). Если Яндекс не будет чистить ГС, то постоянно будет расти поисковый спам, некачественная выдача будет увеличиваться. Пользователи недавольные выдачой, будут переходить на другие ПС. Яндексу убытки. Вообщем думаю ход мысли понятен :)
     
  8. Tima111

    Tima111 Читатель

    Заблокирован
    Регистр.:
    5 июл 2007
    Сообщения:
    218
    Симпатии:
    486
    Перечитайте внимательнее:
    Т.е. ТС предлагает просто в выдаче их занижать и ссылки с них на другие ресурсы не учитывать... Зато гемор для оптимизаторов.
    Что то типо такого фильтра уже есть, когда влияние ссылок не учитывается - непот фильтр :)
     
  9. venetu

    venetu

    Регистр.:
    28 мар 2007
    Сообщения:
    735
    Симпатии:
    261
    Так я как раз о том и говорю, что подобная мера (делай ГС а дальне пусть оптимизаторы парятся) как раз бы и убила весь этот бизнес на корню. В сапе хором обвалились бы цены, заниматься сатами стало бы невыгодно, оптимизаторы бы забили и ушли искать другие пути. А так, имея на руках четкий критерий да/нет - Яша только подталкивает сео-спамеров к совершенствованию всего того говна, которым засирается сеть. И в результате все больше и больше усилий тратит потом на его фильтрацию. Я не верю, что это "социальная миссия". Скорее $-интерес. Но вот в чем он?
     
  10. Tima111

    Tima111 Читатель

    Заблокирован
    Регистр.:
    5 июл 2007
    Сообщения:
    218
    Симпатии:
    486
    Вы представляете какая бы выдача была если бы оптимизаторов вообще не было? :D Если бы ссылочный фактор не учитывался? :D
    Доры одни были бы! :D
    Яше с одной стороны хорошо, ведь ему помогают оптимизаторы сделать поиск релевантным, но у Яши есть Яндекс Директ, поэтому палка в 2-ух концах. Если бы Яша хотел, он бы принял более радикальные меры, но от этого ему же хуже и было...
    Вы думаете ГС только на биржах ссылок зарабатывает? :) Будут больше под контекст клепать ;)
     
Статус темы:
Закрыта.