Про входящие ссылки, фильтры Гугла, сетки сайтов и т.д. (от работника Google)

Тема в разделе "Зарубежные поисковики", создана пользователем Красавчег, 28 ноя 2012.

  1. Красавчег

    Красавчег Завсегдатай

    Регистр.:
    15 мар 2010
    Сообщения:
    902
    Симпатии:
    298
    Джейсон ДеМерс (Jayson DeMers) встретился с бывшим членом команды Google по борьбе с веб-спамом, Андре Вейхе (Andre Weyher) и взял у него небольшое интервью. Андре работал непосредственно в команде Мэтта Каттса, и согласился озвучить кое-какую интересную инсайдерскую информацию о том, как работает эта команда, на что они обращают внимание при работе с профилями входящих ссылок (и манипуляциях с ними), и как оптимизаторы и веб-мастера могут оставаться в рамках того, что позволяет Google сейчас и в ближайшем будущем.

    Ответы на эти вопросы приведены ниже.

    1. Какова была твоя роль в команде Мэтта Каттса, и сколько времени ты работал в ней?

    Команда по борьбе со спамом Google это довольно большая организационная структура. В нее входит много людей, работающих над решением одной задачи: предотвращением попадания в органическую поисковую выдачу сайтов с низким качеством, а также наказанием тех ресурсов, которые пытаются получить более высокое ранжирование за счет техник, идущих вразрез с Руководством Google для веб-мастеров.

    Многие ошибочно отождествляют ее с командой инженеров, ответственных за создание самого алгоритма. Но это два отдельных подразделения одной организации. И это не команда асессоров, о которой вы также часто слышите.

    В команде по борьбе со спамом сотрудники обычно имеют какую-то специализацию. Я отвечал за качество контента и ссылочный профиль. В Google я работал четыре с половиной года, два из которых провел в команде Мэтта Каттса.

    2. Чем руководствуется Google, накладывая ручные фильтры на сайт после анализа ссылочного профиля?

    Очень хороший вопрос. Конечно, существуют детали, которые являются большим внутренним секретом, но в целом этот процесс построен на довольно простых принципах. Я часто встречаю людей, которые оценивают профиль входящих ссылок с математической точностью. Если у вас есть сомнения, то можно поступать и так, но не менее важно использовать здесь свою интуицию.

    Когда команда по борьбе со спамом рассматривает профиль, она обращает внимание на качество страниц, где размещены ссылки, и на анкоры, использованные в этих ссылках. Если профиль и анкоры не согласуются с тем, как должен выглядеть «естественный» профиль, то принимаются соответствующие меры. Возьмем, к примеру, сайт туристической тематики – пусть, он имеет 100 000 входящих ссылок, и в 90 000 из них использованы такие анкоры, как «дешевые перелеты» или «бронировать авиабилет» – такая ситуация мгновенно вызывает подозрение, вряд ли эти ссылки являются естественными.

    Критическое значение играет и качество страниц, на которых расположены ссылки. Настоящая ли это страница? Или она создана только для того, чтобы нести ссылку?

    3. Каким образом алгоритм Google Penguin определяет, что на домен необходимо наложить фильтр?

    В первую очередь, необходимо подчеркнуть, что попасть под Penguin это не то же самое, что попасть под фильтр. Это просто новое, к сожалению, н****гоприятное ранжирование. Фильтр – это гораздо строже.

    Пингвин – это огромное и очень сложное обновление, и существует всего несколько людей, которые знают о нем все. Тем не менее, можно с уверенностью сказать, что он создан для борьбы с наиболее распространенными техниками черного SEO. До введения Penguin со многими из них боролись вручную. Сейчас все это автоматизировано, поэтому спамерам стало сложнее не попадаться на тех вещах, которые относительно долго работали раньше.

    Наиболее очевидным моментом является то, что Пингвин понижает в ранжировании за большое количество низкокачественных входящих ссылок, но Пингвин также принимает во внимание спам на страницах: набивание их ключевыми словами, переоптимизацию тегов и внутренних ссылок.

    4. Каким образом Google раскрывает сетки блогов и/или плохое окружение?

    Поисковые системы полагаются на характерные особенности сайтов, позволяющие выявить кластеры, принадлежащие одному владельцу. И если один из сайтов полагается на техники, которые не соответствуют рекомендациям Google, вполне вероятно, что и другие ресурсы этого владельца делают то же самое. Там используются очень продвинутые технологии, которые вычленяют связанные сайты и накладывают на сайты фильтр, если все они используют подобные техники. К сожалению, я не могу детально раскрыть методы, которые там используются, но это очень продвинутые технологии, и они могут найти все что угодно!

    5. Что лучше всего делать для восстановления позиций сайта, если в Инструментах для вебмастера Google было получено сообщение о ручном наказании за спам?

    Это во многом зависит от того, какой из фильтров был наложен на сайт. Тут может быть два основных сценария, один из них касается качества контента на страницах сайта, а второй, ссылок, которые на них указывают.

    В первом случае следует работать над повышением ценности сайта для посетителей. В большинстве подобных случаев фильтр может накладываться на сайт, который имеет партнерские ссылки и не может представлять для пользователей никакой другой ценности, кроме перехода по этим ссылкам на сторонний ресурс. Веб-мастер должен полностью сосредоточиться на добавлении ценного контента на страницу и показать Google, что причиной существования ресурса является не только обогащение владельца.

    Во втором случае все немного сложнее. Если вы полагались на построении ссылочной массы с помощью ссылок низкого качества, то теперь надо постараться избавиться от как можно большего их числа. Раньше сделать это было слишком сложно, и отнимало много времени, но, к счастью, теперь в инструментах для вебмастера появилась новая функция, для снятия нежелательных ссылок. Следует, однако, быть очень внимательным на стадии отбора ссылок, от которых вы избавляетесь! И снова, тут вам поможет интуиция. Нельзя отказаться от всех ссылок с PR ниже определенного уровня; не всегда сайты с низким PR являются плохими. Смотрите на соответствие тематики и, прежде всего, на естественность ссылки – это важнее чем один только PR.

    6. Как лучше всего вывести сайт из-под Google Penguin?

    Это немного сложнее. Если наложен фильтр, то, в большинстве случаев, нетрудно догадаться, что следует предпринять. Но при автоматическом понижении позиций из-за Penguin, часто не ясно, в чем состоит настоящая причина. Я бы хотел дать здесь ясный и однозначный ответ, но единственное, что можно порекомендовать, это посмотреть на сайт самым критическим образом, попытаться увидеть его глазами Google и найти, в чем он не отвечает рекомендациям. Во время работы в команде я видел, что многие веб-мастера полагаются на довольно рискованные технологии, зная при этом о потенциальных последствиях. После пингвина очень трудно убрать все последствия, связанные с использованием подобного подхода, поэтому я рекомендую прямо сейчас прекратить применение серых методов и сосредоточиться на создании интересного контента и привлечении социальных сигналов. Важность этих составляющих сейчас сильно возросла.

    7. Назови самые большие заблуждения и мифы, из тех, что тебе доводилось слышать от оптимизаторов, о «плохих ссылках» и фильтрах за ссылочные профили?

    Мне кажется, что я могу написать на данную тему целую книгу! Чтобы назваться специалистом в SEO, не надо защищать диплом, и любой может присвоить себе этот титул. В результате, мы имеем почти столько же мнений, сколько существует оптимизаторов. Самые большие заблуждения, из тех, которые я слышал, это: «все каталоги плохие» или «все что ниже определенного PR, Google рассматривает как спам». Я вижу очень много людей, которые впадают в панику и пьют таблетки от головной боли, из-за того, что не обладают необходимыми знаниями.

    Но наиболее опасным заблуждением, из всех тех, которые мне приходилось слышать, является то, что если автоматическое создание ссылочной массы стоит приличных денег, значит оно даст хороший результат. Google дал очень ясно понять: он хочет, чтобы каждая ссылка была обоснована, чтобы это была ПОДЛИННАЯ передача вотума доверия другой странице, если вам по душе такое определение.

    Любые ссылки, созданные за деньги, Google не считает качественными, и они подвергают ваш сайт опасности!

    8. О чем оптимизатор должен знать уже сегодня, чтобы подготовиться к будущим обновлениям алгоритма, связанным со ссылочным профилем?

    Трудно сказать, как будут обстоять дела в будущем, но можете не сомневаться в том, что Google будет повышать эффективность мер борьбы с тем, с чем он борется уже сегодня. Таким образом, если кому-то пока легко сходят с рук спамные техники, то это просто вопрос времени. Удача будет сопутствовать ему до тех пор, пока Google не найдет новые методы их выявления, и начнет накладывать фильтры на тех, кто занимается этим.

    Я считаю, что лучший способ подготовить себя к будущим изменения – это заняться построением SEO-стратегии, основанной на разумных техниках создания страниц и внутренней перелинковке, с одной стороны, а также на налаживании взаимоотношений, которые помогут получить ссылки, с другой. Это означает, что следует добиваться ссылок с таких источников, которые имеют подлинную причину ссылаться на ваш сайт. Ключом является соответствие тематического направления ресурса «ссылочного партнера» тематике вашего сайта!

    9. Недавно ты оставил Google, каковы твои планы на будущее?

    Я исполнил свою давнюю мечту и переехал в Австралию! Сидней – это удивительный город, где есть великолепное сообщество стартаперов. Здесь я создал собственную компанию, и все это мне очень нравится. Мой стартап http://netcomber.com. Это первый продвинутый сетевой сервис, позволяющий находить связанные группы сайтов. После того, как вы введете в сервисе URL-адрес, мы, на основании анализа более 3 тысяч факторов, найдем другие ресурсы, имеющие того же владельца. Пока сервис имеет бета-версию, и мы завершаем сбор информации о более чем 200 миллионах веб-сайтах, используя такие параметры, как хостинг, ID аккаунтов и даже стиль написания кода для того чтобы найти, кто чем владеет в сети... удивительные времена! Через несколько недель мы подготовим новую версию. Кроме того, я завел собственный блог, где буду раскрывать различные вопросы SEO и онлайн-маркетинга. Приглашаю всех задавать мне самые каверзные вопросы!

    Интервью провел: Джейсон ДеМерс (Jayson DeMers) – основатель и генеральный директор агентства поисковой оптимизации из Сиэтла, AudienceBloom, а также владелец юмористического сайта Crackerize.com. Источник: searchenginejournal.com Перевод: Александр Никитин
     
    bliss и zloberman нравится это.
  2. bliss

    bliss Постоялец

    Регистр.:
    29 июн 2008
    Сообщения:
    72
    Симпатии:
    8
    классная штука, но повводил пару доменов трёхмесячной давности — не нашёл ничего сервис. в будущем, скорее всего, интересная штука будет.
     
  3. taodao

    taodao Постоялец

    Регистр.:
    2 ноя 2012
    Сообщения:
    119
    Симпатии:
    47
    А я ввел домены давностью по 3-5 лет, тоже ничего интересного не выдало. Хотя если бы сервис начал делать то, что заявляет, стал бы популярным.
     
  4. zraziu

    zraziu Создатель

    Регистр.:
    4 май 2012
    Сообщения:
    33
    Симпатии:
    0
    Теперь яндекс должен подсуетиться. Может чего нового изобретёт. Хотя скорее всего гугл всегда будет на шаг впереди.
     
  5. Edu-profit

    Edu-profit Постоялец

    Регистр.:
    18 ноя 2011
    Сообщения:
    121
    Симпатии:
    51
    " Там используются очень продвинутые технологии, которые вычленяют связанные сайты и накладывают на сайты фильтр, если все они используют подобные техники." о чем говорить, если даже netcomber офигенно палит сетки конкурентов, сателлиты или просто связки сервисов! А уж такой мостр как Гугл, с его хромными тулбарами и т.д. знает уже все! (не хочу никого заражать паранойей)