[На русском] Очистительная клизма.

Тема в разделе "Материалы по SEO", создана пользователем murich, 18 окт 2009.

Статус темы:
Закрыта.
  1. murich

    murich Постоялец

    Регистр.:
    10 фев 2007
    Сообщения:
    143
    Симпатии:
    19
    Статья от Ласто по поводу АГС 17

    Не очень благозвучное название для поста про разное высокое теоретизирование, потому сразу прошу прощения у любителей означенной медицинской процедуры, пришедших через поиск не туда. Ошибочка вышла. Уж простите местного автора, но привык он сочинять такие тайтлы, чтоб не в бровь, а в глаз...


    Врач не излечит.
    Разведёт лишь на бабки.
    У Ласто спрошу...


    Как, наверное, многие уже успели заметить, в последнее время в Рунете хрень какая-то приключилась. Не хворь и не эпидемия, а именно хрень- не совсем понятная штука с неочевидными гносеологическими корнями, которую ни умом понять, ни аршином общим измерить- у нас в Раше испокон веков всё такое замысловатое :)


    Медвежья болезнь.


    Но хиханьки хаханьками, а многим между тем не до смеха. Великий и ужасный Яндекс, дерябнув в начале осени явно чего-то не того, сходил в сортир и попугал Ихтиандра. В результате чего его хорошенько вытошнило, а его индекс заметно похудел.

    Тем дело не ограничилось- после промывания желудка, спустя всего неделю, в ход пошла ещё и очистительная клизма, и после ещё одного акта пугания Ихтиандра в яндексовом индексе и вовсе мало чего осталось- всё дерьмо (по мнению Яндекса) благополучно слилось в унитаз, да простятся мне упоминания столь неприглядных сущностей в общественном заведении.

    Понятно, что сами вебмастера не совсем согласны с такой классификацией их сайтов, и уж тем более с такими действиями конторы имени Платона Щукина. Тем паче, что сам Платон автоматическим ответом ставит вебмастеров на место- «окстись, уважаемый- твой сайт вовсе не побанен, маленько страниц в серпе осталось, так что старайся, пиши качественный контент, блюди нашу лицензию- и будет тебе счастье».

    Вебмастер, конечно, тут же грузится по самые брови в осмысление того, почему от одной до дюжины страниц в индексе торчат, и чем оные отличаются от всех других, индекса недостойных. Впустую, в общем-то, грузится, потому как никакой закономерности тут нет.

    Закономерность несколько в другом.

    Если помнит кто, то года полтора назад Яндекс уже делал в точности то же самое- то ли втыкал себе два пальца в глотку, то ли юзал кружку Эсмарха, но проявления были аналогичными- число страниц у сайтов в индексе сокращалось до (чаще всего) одной штуки, после чего через некоторое время сайт или ворачивался обратно, или банился.

    Причём вернувшийся сайт мог повторять эти эволюции в дальнейшем ещё несколько раз, и заканчивал их опять-таки неминуемым баном. Можете взять в качестве модели муху- замёрзнуть, оттаять и ожить она может всего лишь ограниченное число раз. После чего всё её здоровье иссякнет, и она окончательно окочурится.

    То есть нового у Яндекса ничего не случилось- та же медвежья болезнь. Только отмеченная с большим размахом.

    Ничто не свидетельствует в пользу окончательного и бесповоротного выздоровления Яндекса, а значит, всё это будет повторяться регулярно и впредь. Так что давайте поймём, с чем мы на самом деле столкнулись тогда и сейчас.


    С чем мы имеем дело?


    Начинать понимание следует с Гугла.

    Если кто не в курсе, то сайт в серп Гугла встаёт довольно резво, и попервости (недели две-три) даже вроде бы получает некие преференции, в вебмастерской среде именуемые как «бонус новичка» - документы сайта довольно легко отыскиваются в топе по адекватным контенту низкочастотникам, получают поисковый трафик, и даже приносят какие-то существенные деньги, если по сути и замыслу весь этот сайт есть не что иное, как дор.

    Всегда бы так было :)

    Но потом время чудес кончается, и Гугл на основе накопленной информации по поведению серферов на данном сайте, ссылочного ранжирования и Бог весть чего ещё, начинает потихоньку применять к документам сайта фильтры. И если в сапплементал в итоге уйдёт процентов 80 документов сайта, а не больше, считайте, что Вам сказочно повезло...

    В Яндексе вопрос фильтрования серпа организован несколько иначе. И более всего сама базовая процедура напоминает мне бассейн с двумя трубами, образ которого ничего не говорит сегодняшним челам, но являл форменный кошмар для обучавшихся математике в школах во времена Гагарина.

    Действительно, когда по одной трубе (индексирующий бот) в серп что-то втекает, по другой (алгоритм фильтрации) что-то вытекает, а внутри бассейна всё бурлит и плещется, то ну никак нельзя предугадать тот момент, когда Ваш сайт засосёт в слив. Может быть, это случится через несколько дней после попадания в индекс, а может быть, и через год. Как повезет в этом хаосе броуновского движения.

    То есть линейная и неотвратимая, а потому понятная схема (как в случае Гугла) заменяется на хаотический метод тыка. Что и повергает вебмастеров в уныние кажущейся непредсказуемостью поведения Яндекса.

    Причём это ещё не все непонятки.

    Естественно, сами правила фильтрации носят временный характер, и через пару недель уже будут отфильтровывать совсем не те сайты, что отлавливают сегодня. Правила эти динамичны, задаются, ясное дело, программерами искалки на основе анализа эффективности работы фильтров за предыдущий период, то есть весь процесс итерационный и циклический.

    Как и всякий итерационный процесс, в каждой смежной итерации правила фильтрации не могут изменяться слишком сильно. А потому сайт, попадший под фильтры, уже в следующем периоде может быть либо амнистирован (вернуться в индекс целиком), либо угодить под фильтрацию более конкретно.

    Долгое пребывание под фильтрами равнозначно бану, хождение по границе чувствительности фильтров приводит к периодическому пропаданию из серпа. А то, что такое пропадание обусловлено именно фильтрами, наглядно видно из присутствия некоторых страниц сайта в индексе (как правило, это морда плюс, возможно, несколько других страниц) - то есть собственно бана нет.


    Виноваты ли Хитрые Конторы?


    Многие вебмастера, чьи сайты ходят по границам фильтров, и периодически вываливаются из индекса, логично видят истоки всех своих бед в продажных ссылках, от которых, тем не менее, всё никак не могут отказаться- да, мышки страдали, плакали, кололись, но исступлённо грызли кактус...

    Если поднять научные публикации сотрудников Яндекса, то да, действительно, там есть описания исследований, позволяющих на основе даже достаточно скромной выборки с 95% вероятностью сказать про любую ссылку на любом сайте, продажная ли она. Причём сам метод не ресурсоёмкий, пользует лишь лингвистику, и может быть применён хоть сейчас.

    Однако, пока что не применяется- иначе все мы это бы тотчас почувствовали, а сами Хитрые Конторы давно бы испустили дух. В чём пока никто не заинтересован.

    Между тем, продажные ссылки, конечно же, оказывают влияние на ссылочное ранжирование и серп в целом, искажая нормальное течение вещей, поэтому перенасыщенность сайта ссылками «не в тему», несомненно, равносильно команде «фас», подаваемой фильтрам. Хотя сам факт продажности пока что никому не интересен. Пока что, обратите внимание.

    То есть, линкуясь на всяких придурков, Вы достигнете того же результата, что и поставив даже больше ссылок на не в тему, но за деньги. Потому что продажные ссылки обычно ведут на что-то более-менее серьёзное и осмысленное, у чего есть полезная составляющая, а придурки - они и в Африке придурки...

    Но, между тем, собственно продажные ссылки сами по себе не есть единственная и основная причина фильтрации или бана сайта.


    Причина медвежьей болезни Яндекса.


    Она тривиальна: ресурсы искалки не безграничны, фильтрации сайтов на этапе добавления в индекс (как у Гугла) нет, ибо это сложно и ресурсоёмко, а потому высвобождение ресурсов от «гуано» осуществляется силами зондер-команды в лице так называемых фильтров, являющих собой совершенно независимый и ни с чем не синхронизируемый процесс (и вот в этом-то вся беда, ибо внешне это носит характер эпидемии).

    То есть обожравшемуся индексу иногда становится совсем плохо и тяжко, и в этот момент добрая медсестра в порыве чадолюбия загибает индекс носом к коленкам, и ставит ему ведёрную клизму со скипидаром.

    Процесс периодически повторяется, ибо по-другому, похоже, вся эта система работать просто не может. Ибо тут надо либо не жрать что попало (а не приучен), либо блюсти диету (по какой-то причине не получается), либо так отстроить систему пищеварения, чтобы клизма не понадобилась- судя по всему, вот с этим-то и самая большая проблема.

    Как обычно, в Раше всё решается через жопу. Прости меня, Господи...


    Но есть одно наблюдение.


    Очень похоже, что фильтры, ответственные за изгнание недостойных сайтов из индекса искалки, пользуют концепцию оттаявшей мухи- амнистия выдаётся всего лишь несколько раз, после чего сайт банится нахрен. А потому есть некий «список попавших под раздачу сайтов», по которому зондер-команда периодически пробегается, и смотрит, достоин сайт очередного наказания в соответствии с текущими настройками фильтров, или нет.

    Из этого следует, что с единожды выпавшим из индекса сайтом непременно что-то надо сделать. Ибо требуется тупо отвести его от границы применимости фильтров. А если ничего с сайтом не делать, то фильтры захапают сайт сызнова, и число попыток его амнистии очень быстро исчерпается, а сайт будет расстрелян зондер-командой.

    А что такого Вы в принципе можете сделать?

    Ниже в некотором роде фантазии, но исходят они из здравых вещей, повышающих привлекательность Вашего сайта с точки зрения искалки (а по этому и фанатеют фильтры, ясен пень).

    Уберите неуникальность контента в пределах сайта.
    Не должно быть дублирования одного и того же контента в разных урлах.
    Это у Гугла приготовлен сапплементал, а у Яндекса предусмотрен лишь бан.
    Ценность контента сайта- конечно, вещь в себе.
    И копипаст, безусловно, это не хорошо.
    Но, ежели без него никак, то хоть ставьте ссылку на источник- это уже не воровство контента, а добросовестное цитирование.
    Если Вы при этом думаете, что тут самое место ноиндексу и нофаллову, то смело продолжайте быть в этом уверенным, дабы вскорости узнать мнение Яндекса на сей счёт.
    Если кто-то считает, что какие-то там уникализаторы текста, позволяющие из килобайтного текста про всякую чешую сделать сто «уникальных» текстов про ту же чешую, но проходящие какие-то там «тесты на уникальность», то с этого места начинайте знать, что это далеко не так.
    Современным искалкам глубоко фиолетова степень уникальности Вашего текста. Сегодня критерии несколько иные- есть в этом тексте полезная составляющая, или в нём присутствует только та самая пресловутая чешуя.
    Отсутствие полезного наполнения (или вообще того, что может быть в принципе проанализировано алгоритмами) – стопудовый повод для выкидывания документа из индекса. Печально, но пока под эту дудку с треском и свистом с Яндекса слетают всякие фотосайты и тому подобные вещи, где мало букв.

    Но это те моменты, на которые следует ориентироваться глобально. А что делать, если сайт «мигнул», то есть однажды уже сходил под фильтры? И нет никакой возможности убрать дублированный в пределах сайта контент, или проставить ссылки на источник копипаста?


    Рецепт исцеления.


    Ведь бывает, что на домене есть серьёзные показатели пузомерок, давшиеся колоссальными затратами времени, усилий и денег - было бы очень обидно всё это потерять.

    Тут надо сделать что-нибудь, чтобы изъять этот домен из «расстрельного списка» - после того, как домен «отпустит», и до следующего подпадания его под фильтры, как следует из ранее озвученных соображений, может пройти очень много времени :)

    В голову приходит самое простое- снять с домена делегирование, чтобы в домене не было ничего, и домен выпал из индекса, а потом заново его проиндексировать, как свежачок. При этом, как правило, показатели пузомерок не успевают рассосаться- даже у отсутствующего много лет в индексе сайта сохраняется весь его ТИЦ.

    Можно. Но, к сожалению, как показала практика, выпадает из индекса таким макаром домен очень долго.

    Примерно так же медленно, как и при внезапном запрете индексации через файл роботса. Наверное, искалка никак не может поверить, что Вы добровольно решились на такое :)

    Вариантом может быть изменение структуры УРЛов- в частности, достаточно смены рабочего расширения с .html на .shtml, к примеру говоря, даже без варьирования урлопостроения (ведь это составляет некоторую проблему, если только Вы сами не написали движок своего сайта). Но только если по адресам со старым расширением возникает ошибка 404.

    В ряде случаев можно вообще ничего не менять, но заставить движок возвращать хедер 404 ошибки- для бота это будет равносильно отсутствию документа в этом адресе, хотя пользователь никак этого не увидит. Тут, впрочем, может возникнуть трабл с хитроботом, ибо тот, наоборот, не смотрит на хедеры, но сверяет буковки документа с архивированной в индексе версией.

    Но вот что может сделать любой вебмастер, так это выкинуть нахрен процентов десять-двадцать документов, и добавить (на их место, или в новые урлы) столько же других, либо даже чуть больше. Причём разово, а не постепенно, как это всегда рекомендуется.

    То есть устроить аврал и дать команду свистать всех наверх.

    Чем решительнее Вы перекроите свой сайт, тем сильнее испугаете фильтры контента Яндекса- есть неслабая вероятность, что они от Вас отвяжутся.

    Видите, какое это неблагодарное занятие, дружить с Яндексом? Но охота пуще неволи, кто бы спорил...

    Ну и приписка ко всему вышесказанному, имеющая силу дискламбера.

    Мастер Ласто, понятное дело, ни разу не сотрудник Яндекса, а потому не может знать наверняка, какое именно действие спасёт Ваш сайт от бана после первого выпадения его из индекса. А потому не несёт никакой ответственности за всё то, что Вы предпримите, поначитавшись вышеизложенного, равно как и за противодействие Яндекса в ответ на это.

    Оригинал: http://lasto.com/blog/comment_1255184100.html
     
  2. Merzliy

    Merzliy Постоялец

    Регистр.:
    3 май 2009
    Сообщения:
    58
    Симпатии:
    3
    Хорошая статья. Кстати, с несколькими людьми разговаривал, все они так или иначе пострадали от АГС, анализируя потом причины они обнаружили, что индексировались одинаковые материалы с их сайтов, постоенных на движках. Самый простой пример - есть какая-то статья, а есть эта же статья для печати. Поисковик расценивает это как дубль, что не означает ничего хорошего.
    Обращайте на это внимание.
     
Статус темы:
Закрыта.