№ 118-РВ - Откуда берутся советы по оптимизации

Тема в разделе "Платная рассылка Ашманова", создана пользователем Rodik, 17 ноя 2006.

Статус темы:
Закрыта.
  1. Rodik

    Rodik Прохожие

    No. 118-РВ


    [FONT=tahoma,arial]
    ОТКУДА БЕРУТСЯ СОВЕТЫ
    ПО ОПТИМИЗАЦИИ
    методы исследования алгоритмов
    поисковых систем[/FONT]​



    ОТ РЕДАКТОРА
    КУДА ПОЙТИ УЧИТЬСЯ
    МОСКВА
    24-25 апреля 2006 года

    24-25 апреля пройдет семинар по продвижению сайтов в Интернете. Первый день будет полностью посвящен поисковой оптимизации, второй - общим вопросам интернет-маркетинга, рекламе в Интернете, работе со статистикой. С докладами выступят Михаил Козлов, Андрей Иванов, Алексей Тутубалин (все - "Ашманов и Партнеры"), Сергей Спивак (Prior.Ru), Кирилл Чистов (Subscribe.Ru).
    * * * МОСКВА
    27 апреля 2006 года

    27 апреля пройдет семинар "Эффективная реклама в Интернете". Наряду с теорией большое внимание будет уделено получению практических навыков, будет проведено 3 тренинга - по медиапланированию, по анализу рекламной компании и по контекстной рекламе. С докладами выступят - Михаил Труфанов (Артон консалтинг), Дмитрий Малявкин (Артон консалтинг), Федор Вирин (Mail.ru), Роман Филлипов (Internest), Дина Павлова (Адженда)
    Поисковые системы постепенно переходят от политики игнорирования сообщества людей, которые хотят влиять на результаты выдачи к, по меньшей мере, признанию факта их существования. В объявленном недавно конкурсе учебных курсов по информационному поиску "Класс 2006" (призовой фонд - 1 млн. рублей) есть интересная тема: "Поисковый спам. Информационный поиск в условиях конфликта интересов с поставщиками контента".
    Нужно отметить, что поставщики контента конфликтуют не с поисковыми системами, а с конкурентами, находящимися выше и рядом в поисковой выдаче. Поисковая система является лишь арбитром в этих спорах. Правда, в отличие от любого бизнеса, конкуренция в поисковых системах отличается тем, что здесь игроки вынуждены сами изобретать себе правила и делиться на команды "черных" и "белых", "плохих" и "хороших".
    Отрадно, что клеймо "разработчиков антипоисковых технологий" понемногу уходит с имиджа специалистов по поисковому продвижению. Примером тому, наверное, можно считать факт, что мастер-класс под названием "Поисковая оптимизация: терминология и принципы" на КИБе прочтет Сергей Петренко, директор компании Яндекс.Украина.
    * * * Официальное сообщение от компании "Ашманов и Партнеры" - всем руководителям СМИ в Рунете. Компания "Поисковые технологии" объявляет о запуске нового проекта - специализированного сервиса поиска по сайту для интернет-СМИ. Это современный мощный и удобный поисковый сервис, который способствует увеличению числа показов страниц и повышению лояльности посетителей сайта. Сервис - не требует оплаты и дополнительных серверных мощностей, так как речь идет о хостинге поиска.
    Система поиска для интернет-СМИ бесплатна, ее внедрение в большинстве случаев не требует дополнительных вложений труда и денег. "Поисковые технологии" берут на себя решение практически всех технических вопросов, связанных с реализацией проекта. Внедрение занимает буквально несколько часов и сводится к настройке и размещению поисковой формы и формы показа результатов поиска на страницах сайта.
    Мы приглашаем интернет-СМИ принять участие в проекте, позволяющем быстро создать надежную и удобную систему поиска по сайту. Подробнее о проекте и установке поиска на сайт можно узнать по электронной почте info@novoteka.ru.
    О дополнительных функциях, примерах внедрения и возможностях можно узнать, прочтя полный текст пресс-релиза.
    * * * Компания NetPromoter выпустила свою версию бара для оптимизаторов. Бар отображает тИЦ, PageRank и другие показатели сайта, используемые в SEO. Правда, все возможности бара доступны только тем, у кого установлена программа Page Promoter. Аналитический отдел компании "Ашманов и Партнеры" недавно провел аудит этой программы. Были обследованы все модули, с результатами аудита вы можете ознакомиться, скачав архив NetPromoter_inside.zip по ссылке - http://www.optimization.ru/subscribe/screens/NetPromoter_inside.zip


    СОБЫТИЯ НЕДЕЛИ Google получила приз капитана Хука

    Коалиция по борьбе с биопиратством считает, что намерение интернет-компании создать онлайновую базу данных, которая будет содержать сведения о всех генах на нашей планете, приведет к монополизации соответствующих ресурсов. В связи с этим организаторы конкурса Captain Hook Awards присудили Google приз капитана Хука за монополизацию генетических ресурсов. По мнению экспертов, монополизация может привести к ухудшению ситуации защиты прав человека. Google пока никак не комментирует данную ситуацию. Читать подробнее >>
    * * * Google Related Links - новый сервис для сайтов

    Появился совершенно новый сервис от Google Labs - "Близкие ссылки". Служба представляет собой информационный модуль Google, который можно разместить в любом месте на своей веб-странице, при этом указать его размер и цвет, выбрать вид контента. В этом модуле содержатся ссылки на близкие по тематике сайты, новостные статьи и поисковые запросы (информацию предоставляет Google). По внешнему виду и по сути сервис очень напоминает рекламный модуль AdSense, но только переходы по "близким" ссылкам пока не оплачиваются, но это должно измениться в будущем. Google обещает поставлять свежий и интересный контент для любого веб-сайта, который тематически соответствует содержанию каждой конкретной веб-страницы.
    * * * Яндекс открывает новую службу - "пресс портреты"

    При поиске в "Яндекс.Новостях" пользователи теперь смогут видеть ссылки на "пресс-портреты" тех, чьи имена более всего соответствуют заданному запросу. Каждый пресс-портрет содержит краткую информацию о человеке: сведения о местах работы и должностях, прямую речь и высказывания о них третьих лиц. Абсолютно все сведения о личностях сопровождаются фрагментами документов, из которых они были извлечены, что позволяет быстро понять предоставленную информацию и ее достоверность. Сообщается, что справочная часть сервиса "Яндекс.Новости" состоит более чем из 1 млн пресс-портретов, 30 тыс. из которых обновляется ежедневно. Читать подробнее >>
    * * * Google осваивает новый рынок?

    Компания Google начала отбор специалистов в сферах интерактивного телевидения, радио и служб по запросу. Это не может не вызвать вопрос: для чего? Некоторые специалисты считают, что компания Google в ближайшее время может открыть ряд новых сервисов, связанных с рынком бытовой электроники. Так же известно, что интернет-компания около двух с половиной месяцев назад приобрела калифорнийскую фирму dMarc Broadcasting, специализирующуюся на разработке систем автоматического размещения рекламы на радио. Читать подробнее >>
    * * * Противники Google Earth

    Достаточно известный сервис компании Google успел уже обзавестись как почитателями, так и противниками. С критикой в адрес службы выступило Индийское военное ведомство, которое считает, что доступные спутниковые снимки могут "обеспечить врагам определенные преимущества", что снимки угрожают безопасности стратегически важных районов. Противники такого сервиса считают, что необходимо ввести законодательные ограничения на доступ к спутниковым снимкам через Интернет. В ответ на замечания представители компании подчеркивают, что используемые фотографии являются совершенно открытой информацией (интернет-сервисы компании лишь обеспечивают простой и удобный доступ к этой информации). Читать подробнее >>
    * * * Яндекс отображает пиктограммы каждого сайта

    Компания Яндекс облегчает поиск для своих пользователей. Теперь в результатах поиска можно отображать пиктограмму (favicon) для каждого сайта. Такая маленькая картинка-логотип позволяет быстро распознать сайт, даже не читая заголовок. Для активации новой функции достаточно зайти в настройки поиска, поставить галочку напротив строки "показывать пиктограммы сайтов на первой странице результатов поиска" и нажать кнопку "Сохранить и вернуться к поиску". Читать подробнее >>


    Методы исследования алгоритмов поисковых систем - Сергей Бондарь ОТКУДА БЕРУТСЯ СОВЕТЫ ПО ОПТИМИЗАЦИИ

    Почему исследования поисковиков - единственный достоверный источник информации

    На протяжении недолгой, но бурной эволюции Интернета исторически сложился некоторый зазор между аналитикой поисковых систем как наукой, и оптимизацией сайтов как искусством. Большинство представителей оптимизаторского цеха черпают свои профессиональные знания из всевозможных информационно-познавательных ресурсов, очень часто не вдаваясь в подробности - а откуда, собственно, ресурс получил публикуемую информацию. Порою на очередном форуме, посвященном вопросам оптимизации, можно стать свидетелем горячих споров о ключевых моментах работы алгоритмов поисковых систем, однако не всегда в этих спорах рождается истина.
    Конечно, не обязательно знать, как функционирует система, чтобы пользоваться результатами её работы. Так, современный автолюбитель может даже не догадываться, каким образом устроен двигатель внутреннего сгорания. Главное - иметь представление о правилах дорожного движения и немного разбираться в принципах управления автомобилем. Однако, по всей видимости, совсем недостаточно знать общие правила оптимизации и написания html-документов, чтобы быть оптимизатором.
    Без знаний о принципах работы алгоритмов поисковых систем нельзя обойтись хотя бы потому, что эти принципы меняются практически постоянно. При этом, полагаясь исключительно на общую информацию, часто не имеющую ничего общего с объективной реальностью, оптимизатор в лучшем случае потеряет время и доверие потенциальных клиентов.
    Знание принципов функционирования алгоритмов поисковых систем должно основываться на объективной и достоверной информации. Разработчики поисковиков эту информацию предоставлять не будут по вполне понятным соображениям - на следующий день после опубликования алгоритма все страницы, подвергшиеся оптимизации в соответствии с правилами определения релевантности, должны оказаться на первом месте. Но только канадские фигуристы могут быть вторыми олимпийскими чемпионами - двух первых мест в списке ответов поисковой машины, к большому сожалению, не бывает.
    Следовательно, остается единственный путь - применить к поисковым алгоритмам методологию изучения сложных систем.
    Многовековая история развития методов научного познания показывает, что существует всего два подхода к познанию принципов функционирования закрытых (т.е. таких, которые мы не можем разложить на составляющие и провести их анализ) систем - наблюдение и эксперимент.
    Первый методологический подход опирается на мощный и хорошо разработанный инструментарий статистики. Суть его такова: если долго и тщательно наблюдать за работой системы, то можно обнаружить некие закономерности в её функционировании, по которым мы можем судить о её устройстве. Аналитики поисковых систем довольно часто используют статистический анализ. Однако, в большинстве случаев, полученные результаты имеют очень высокий показатель вероятности статистической ошибки. Перечислим причины вероятных ошибок:
    • всегда неудовлетворительно малый размер выборки. Вся суть статистического метода состоит в отображении на ограниченном количестве частных случаев законов функционирования гораздо больших явлений. Чем больше размер выборки, тем меньше вероятность каких-либо неучтенных отклонений, тем точнее результат наблюдений. В настоящее время количество индексируемых поисковиками документов в Интернете не позволяет рассчитывать на хоть какую-то более или менее приемлемую достоверность статистической выборки для изучения принципов функционирования поисковых систем. Какой бы большой не была выборка анализируемых документов, она не сможет отразить закономерности и принципы работы поискового алгоритма. Мой первый пост на оптимизаторском форуме - "О значении ключевого слова в доменном имени: результат анализа 10 тысяч доменов" - с треском провалился. Более опытные коллеги привели мне десятки примеров, которые напрочь опровергали сделанные мною выводы;
    • невозможность учтения всех параметров поискового алгоритма. Ещё большей проблемой при использовании статистики в аналитике поисковых систем является недостаточность информации о количестве и качестве параметров, принимающих участие в работе алгоритма поисковой системы. Даже если истории о шести сотнях параметров отнести к категории оптимизаторских страшилок, мы никогда не узнаем хотя бы приблизительный перечень факторов, по которым оценивается релевантность документа. Весьма неопределенным остается процесс определения формул, по которым вычисляется тот или иной параметр. И уже совсем пессимистичной выглядит перспектива познания комбинации всех параметров, а также вычисления их веса в общей формуле определения релевантности. Как бы искусно не владел оптимизатор приемами многофакторного анализа, он просто не сможет учесть в своих расчетах всех параметров, используемых поисковыми машинами. А если в анализе не будут использованы все наиболее значимые параметры, мы всегда будем получать искаженные результаты.
    Простое наблюдение результатов работы алгоритмов является весьма несовершенным методом аналитики поисковых систем. Альтернативой этому подходу может служить эксперимент. Суть экспериментального подхода состоит в том, что, создавая страницы с контролируемыми исследователем параметрами, можно получать ответы поискового алгоритма, на основании которых можно будет подтвердить или опровергнуть ту или иную гипотезу. Далее, используя тот же многофакторный анализ, представляется возможным оценить вес и оптимальные значения параметров. Что и является конечной целью всей аналитики поисковых систем.
    Метод уникальных ключевых слов

    Так как поисковый алгоритм оценивает соответствие страницы запросу, состоящему из одного или нескольких слов, то и большинство настраничных параметров текста относится к характеристикам слов. К основным настраничным параметрам принадлежат:
    • вес ключевого слова в тексте - доля ключевого слова относительно суммы всех слов текста, выраженная в процентах;
    • положение ключевого слова в тексте - принято считать, что чем ближе ключевое слово к началу текста, тем оно более значимо, потому что о важном пишут в начале (если Вы, конечно, не пишете любовное послание, или годовой отчет для инвестора);
    • положение слов ключевой фразы - чем ближе располагаются слова ключевой фразы относительно друг друга, тем более текст соответствует поисковому запросу.
    Итак, оперируя настраничными параметрами, можно создавать тексты, которые в списках ответов поисковых машин выстраивались бы в той последовательности, которая или подтверждала бы предположения о степени влияния того или иного параметра, или опровергала бы их.
    Дело остается за малым - выбрать ключевые слова для эксперимента. Здесь мы сразу сталкиваемся с проблемой, т.к. какие бы мы слова для эксперимента не выбрали, кроме наших страниц поисковик возвратит в списке ответов и большое число других страниц. Таким образом, мы не сможем добиться чистоты эксперимента, а выводы, сделанные на основании полученных результатов, будут страдать той же низкой степенью достоверности, как и в случае применения статистического анализа.
    Однако, выход из этого затруднения есть. Он заключается в создании уникальных, ранее не существовавших ключевых слов. Так как ни одному поисковику вновь созданные слова неизвестны, он будет возвращать по их запросу только экспериментальные страницы.
    Как генерировать уникальные ключевые слова - дело вкуса исследователя. Можно просто хаотично стучать по клавиатуре, получая что-то наподобие "жфшщымтфю", но можно поступить и более изысканно, прибегнув к услугам многочисленных сервисов по созданию благозвучных и хорошо запоминающихся паролей.
    Метод уникальных ключевых слов имеет бесспорные достоинства:
    • он избавляет исследователя от написания больших и сложных скриптов автоматических запросов для сбора огромных массивов статистики, что, к тому же, ещё и является запрещенным приемом по отношению к поисковым машинам. Для каждого эксперимента достаточно создать десяток страниц с уникальным ключевым словом, чтобы получить достоверный ответ на злободневный вопрос оптимизации;
    • поисковые машины не могут блокировать исследования с использованием уникальных ключевых слов, так как для их алгоритмов все слова равны;
    • метод прост в применении. Если для организации исследований взаимного влияния параметров нужны, как минимум, знания методов многофакторного анализа, то для экспериментов, отвечающих на вопросы качественного характера достаточно знания самых простых правил проведения научных экспериментов.
    Нами пока не обнаружены более или менее серьезные недостатки метода. Даже такие сложные вопросы аналитики поисковых систем, как индексирование поисковиками динамических страниц, способность поисковых роботов переходить по динамически генерируемым ссылкам, влияние входящих ссылок на оценку релевантности страницы - все эти вопросы с успехом решаются с помощью предложенного метода.
    Более или менее серьезным замечанием может быть предположение об оценке поисковыми системами значимости слова. В оптимизаторской среде есть понятие "денежных слов" - некий список очень популярных поисковых запросов, к которым поисковики применяют дополнительные фильтры, с целью получения прибыли за рекламу по данным запросам. В таком случае эксперименты с уникальными ключевыми словами, и реально существующими словами могут давать различные результаты. Пока подтвердить это предположение нам не удалось. Поэтому мы будем искренне признательны тем читателям, которые выскажут соображения по поводу возможных недостатков метода.
    Что исследовать в первую очередь

    Спектр вопросов, которые можно разрешить с помощью метода уникальных ключевых слов, достаточно широк. При разработке метода мы начинали с выяснения вопросов качественного характера:
    Затем варианты экспериментов всё более усложнялись, и на данный момент разработаны такие вопросы, как:
    • какой объем информации на странице индексируется поисковыми системами;
    • действительно ли поисковые системы способны обезвреживать всевозможные приемы искусственного завышения веса ключевых слов;
    • как поисковые системы индексируют страницы, на которых используются flash-технологии;
    • индексируют ли поисковики содержание java-скриптов, и выполняются ли скрипты поисковыми роботами.
    В целом, метод уникальных ключевых слов в той или иной степени применим к большинству вопросов аналитики поисковых систем - от вопроса оптимального веса ключевого слова, до проблем индексации динамических сайтов. Мы надеемся, что в ближайшем будущем появятся интересные публикации, раскрывающие особенности функционирования алгоритмов поисковых систем, исследованные с помощью метода уникальных ключевых слов.
    Как формируются оптимизационные рекомендации Web CEO

    Ранее уже говорилось, что практика оптимизации невозможна без теории аналитики поисковых систем. Сейчас пришло время рассмотреть вопрос - а как применяются полученные знания на практике.
    Очевидно, что удовлетворение научного любопытства и яркие впечатления руководства компании от глубины и размаха деятельности отдела аналитики поисковых систем - не конечная цель исследовательской работы. Аналитик всегда должен руководствоваться незаслуженно забытым заветом Владимира Ильича Ленина: "В любой политической ситуации задавайте вопрос: кому это выгодно".
    Информация о принципах работы алгоритмов поисковых систем в компании Web CEO отражается в рекомендациях для оптимизаторов. Инструмент Web CEO Optimization построен по принципу эмуляции поисковой системы. Программа рассматривает оптимизируемую страницу с точки зрения поисковой машины и выдает советы по её усовершенствованию. Этим качеством данный инструмент превосходит конкурентов, которые для всех страниц выдают стандартные оптимизационные советы, или вообще ограничиваются предоставлением никак не интерпретируемых параметров.
    Незнание принципов работы поисковых систем приводит к таким казусам, как анализ веса ключевого слова в комментариях или мета-тэгах, реализованный в плагине "Tор-10 Optimizer" программы IBP, тогда как эти параметры, как показано нами, не только не принимаются в расчет поисковиками, но даже сами тэги игнорируются поисковыми роботами.
    Отделом аналитики поисковых систем компании Web CEO налажен автоматический мониторинг поисковых алгоритмов, и любые изменения сразу же отображаются в инструменте Web CEO Optimization. Таким образом, клиенты Web CEO получают самые свежие и наиболее объективные данные о принципах работы поисковых систем, выраженные в конкретных советах по оптимизации.
    Как можно воспользоваться свежими результатами профессиональных исследований, не проводя их постоянно самостоятельно

    Любая теоретическая разработка не имеет ценности, если она неприменима на практике. Кроме оригинальности и простоты исполнения, использование методов изучения поисковых алгоритмов должно быть экономически оправдано. Однако, большие затраты времени и сил на разработку, постановку и анализ экспериментов, могут отрицательно сказаться на и без того загруженном рабочем графике оптимизатора.
    Ответ - в использовании программного обеспечения, которое уже предоставляет рекомендации на основе результатов регулярно проводимых исследований - такого, как Web CEO. В этом случае, получая от программы совет "вес ключевой фразы в тэге TITLE должен достигать 33%", вы можете быть уверены, что эта цифра была не "содрана" с очередного форума, а выведена в результате скрупулезного изучения реакции поисковика на изменения в экспериментальных веб-страницах.
    Дополнительная информация:
    Подписчики расширенного варианта (РВ) нашей рассылки имеют право приобрести любую версию программного обеспечения WebCEO
    со скидкой 50%
    .
    Вы сэкономите от $95 до $240.

    Для получения скидки необходимо отправить заявку на адрес subscribe@ashmanov.com c темой письма WebCEO-50%


    СОВЕТУЕМ ПРОЧЕСТЬ Семинар "Все секреты контекстной рекламы"

    В Киеве прошел семинар, посвященный основным проблемам и вопросам, которые касаются контекстной рекламы. Семинар (в котором принимали участие представители Яндекса, Меты, Бегуна, Гугла в Украине и другие) организовало и провело интернет-агенство adPro. Один из участников мероприятия, представитель проекта "Есть работа!", поделился своими впечатлениями от увиденного и услышанного. Автор отметил очень слабую организацию семинара (начиная, от мелких технических просчетов, заканчивая неправильным распределением времени между докладчиками). В своем докладе автор отметил выступления Алексея Басова (из Бегуна) и Владимира Долгова (из Google). Читать доклад >>
    * * * Мартовский выпуск SEO-дайджеста

    На Master-X вышел в свет первый весенний выпуск SEO-дайджеста за 2006 год. Как и всегда, дайджест наполнен последними новостями, исследованиями и статьями из мира поисковой оптимизации. В этом месяце внимания заслужили: информация о запуске бета-версии Windows Live Search; "три беспроводных рекламных патента, которые Google подал на рассмотрение"; обновление компанией Yahoo своих поисковых тулбаров для Firefox и Internet Explorer; статья о создании ссылок посредством пресс-релизов, которые увеличивают поисковый ранкинг и многое другое. Читать дайджест >>
    * * * "Слив" бюджета контекстной рекламы?

    Одним из самых распространенных и простых способов заработка в Интернете является контекстная реклама. Однако эта простота таит в себе ряд подводных камней, которые могут лишь навредить рекламодателю, если тот не будет тщательно следить за тем, куда уходят его деньги. Автор статьи "Контекстная реклама, как угроза бюджету компании" всерьез задумался над проблемой того, как контекстная реклама может уменьшить доход. Найдя дыры в системах защиты Директа и Бегуна, в браузерах, автор объясняет возможность потенциального устранения конкурентов через "сливание" их бюджета. Читать статью >>
    * * * "Спам - маргинальный канал для начинающих или неудачников"

    С каждым днем противостояние со спамом в Сети усиливается. Однако стабилизация этого процесса не кажется пока устойчивой. В последнее время спам стабилизировался по количеству и тематике, он стал более разнообразным, его стали использовать и в информационных войнах. Поэтому современные системы защиты должны быть очень оперативными. Автор статьи "Круглосуточный дозор" предлагает на рассмотрение интервью с Игорем Ашмановым и Евгением Касперским, в которых рассматривались некоторые аспекты противодействия спаму: принятие законодательных мер, создание различного рода коалиций по борьбе со спамом, создание антиспамовских систем и т.д. Читать статью >>
    * * * Немного об уловках с контекстной рекламой

    Сегодня достаточно много статей уделяют внимание контекстной рекламе, рассматривая ее плюсы и минусы, ее эффективность и прибыльность и т.д. Не стала исключением и автор статьи "AdSense: вредные советы". В своей статье автор проанализировала десять самых простых и, возможно, самых приемлемых уловок, которые помогут владельцу сайта получать бОльшую прибыль с контекстной рекламы (например, соответствие цвета объявлений цветовой гамме вашего веб-сайта; расположение кода AdSense на странице сайта так, чтобы объявления казались неотъемлемой его частью и т.д.). Читать статью >>
    * * * Кто контролирует поиск изображений в Сети?

    Одним из интереснейших и очень перспективным сервисом в Интернете является поиск изображений. Это подтверждает тот факт, что за последний год количество поисковых запросов, связанных с поиском изображений увеличилось почти в два раза, а именно - на 91%. Как считают эксперты, увеличение относительной популярности поиска изображений связано с распространением широкополосного доступа в Интернет. Крупнейшая поисковая система Google и в таком показателе как количество запросов, связанных с поиском изображений, остается лидером, охватывая около 71,9%. Читать статью >>
    Обзор сделал Игорь Гуров.​


    ИНТЕРЕСНЫЕ ТЕМЫ ФОРУМА
    Закупка трафика как метод продвижения сайта Иногда новое, это не новое а неспроста забытое старое. См. Для того чтобы попасть на короткое время в топы, было куплено 80.000 дорвейного порнотрафика...
    Региональные феномены Предлагается собрать коллекцию "региональных феноменов", показывающих, насколько недальновидно во всем полагаться на среднестатистические данные при планировании своей деятельности в Сети. Также желательно эти феномены истолковать.
    "На баннеры реагируют только дети до 7 лет..." Исследовательская компания Nielsen Norman Group обнародовала результаты исследования, выявляющего приспособленность веб-страниц к свойствам человеческого глаза и мозга. Отслеживая движения зрачков с помощью специального оборудования, специалисты раскритиковали множество популярных решений веб-дизайна.
    Органайзер оптимизатору друг? В связи с запуском онлайнового календаря на Google хотел бы узнать насколько это востребованный инструмент в околооптимизаторской среде? Кто чем пользуется в ежедневной работе?
    Песок и его обход Четыре тезиса и три вывода. Но... спорные.
    (Тема находится в закрытом разделе форума, доступном подписчикам РВ, расширенного варианта рассылки.)
    Обсуждения в форумах - "живые". Новые сообщения могут появляться уже после просмотра вами заинтересовавшей темы. Маленький совет: если Вы хотите получать информацию о новых сообщениях в интересующих темах, сделайте две вещи.
    • Зарегистрируйтесь на форуме - http://seochase.com/profile.php?mode=register
    • Авторизуйтесь при входе и на странице с интересующей вас темой кликните по ссылке "Следить за ответами в теме". Извещения о новых ответах станут приходить вам на адрес, указанный при регистрации.
    Увидимся на форуме.


    СМЫСЛ ДИРЕКТОРИЙ ДЛЯ ОПТИМИЗАЦИИ Аарон Уолл Директории (в Рунете используется обычно термин "каталоги")... Есть ли от них толк, с точки зрения оптимизации?

    Аарон Уолл - 1 апреля, 2006
    Оригинальный текст - http://www.seobook.com/archives/001583.shtml.
    Перевод выполнен с разрешения правообладателя.
    После недавнего закрытия Zeal (лично я думаю, что Looksmart глупо поступили в данном случае) некоторые стали задаваться вопросом, а есть ли вообще смысл в директориях. $hoemoney недавно провел мини интервью на эту тему с несколькими оптимизаторами. Общее мнение таково, что если директория может посылать определенное количество трафика, то тогда она стоит того, чтобы тратить деньги на включение в нее.
    Я считаю, что это основное правило, которым стоит руководствоваться при работе с директориями, но в то же время, я настроен немного более агрессивно. Я все еще покупаю ссылки в директориях, которые не приносят много трафика, но которые позитивно влияют на результаты выдачи в Yahoo! и MSN. С основами покончено, а теперь можно поговорить о некоторых нюансах, которые также стоит учитывать.
    • Показывается ли директория в результатах выдачи? - Если сайт находится на хороших позициях в результатах выдачи, значит, поисковики ему "доверяют". Плюс, если даже ссылки в таких директориях не очень то помогают улучшить ваши собственный результаты, то они все еще могут послать вам немного трафика. Я довольно часто вижу страницы директорий Business.com и JoeAnt на страницах выдачи.
    • Ставят на вас прямую ссылку или нет? - Прямые ссылки скорей всего будут восприниматься поисковиками как "голос" в пользу вашего сайта. Некоторые непрямы ссылки, тоже могут учитываться, но скорей всего - нет.
    • Как часто директория обходится поисковиками? - Вам нужно проверить кешируется ли директория Google или нет, и если да - то, как часто. Если директория не кешируется или дата последнего кеша - больше чем 6 месяцев, тогда польза от ссылки в такой директории равна нулю.
    • Насколько качественная директория? - Листит ли она всех, кто ни заплатит? Или они предъявляют определенные стандарты к сайтам? Относят ли они сайты в соответствующие категории? Или они продают ссылки всем кому ни попадя? Уникальный ли контент на каждой из страниц? Пусты ли большинство страниц, что только запутывает поисковики? Если директория никак не помогает поисковикам при индексации (относя сайты в соответствующие категории), тогда скорей всего поисковики будут ее игнорировать и не придавать никакого значения таким "голосам".
    • Насколько директория ориентирована на рекламу? - Все ли ссылки платные? Или директория включает некоторые полезные ресурсы бесплатно? Выглядит ли директория ориентированной на конечного пользователя или единственной целью ее создания - это реклама через AdSense или различные партнерские системы?
    • Есть ли возможность приобрести в директории сквозную ссылку? - Если таковая возможность существует, скорей всего ссылки с такой директории не учитываются поисковиками или их вес очень мал, особенно если сквозные ссылки ведут на спам-сайты.
    • Поддерживается ли директория в актуальном состоянии? Директории, 50% ссылок которых не работают или ведут на спам-сайты и для поисковиков и для пользователей, чем директории, на которых битых ссылок всего несколько. Недавно я приобрел директорию, которая не обновлялась уже более двух лет. В ней было всего 25 страниц и 400 нерабочих ссылок. Просто кошмар!
    • Располагает ли директория собственным уникальным контентом? - Это клон DMOZ? Списки директории составлены вручную и отличаются от списков на других директориях?
    • Соответствует ли директория тематике вашего сайта? - Многие из небольших, узко-тематических директорий могут поставлять трафик высокого качества.
    Боб Матч недавно произвел рейтинговую оценку сорока топовых директорий основываясь на их возрасте, количестве входящих ссылок с доменов gov и edu, есть ли директория в DMOZ и Yahoo! Я бы заметил, что WhatUSeek - по-настоящему не является директорией, ISEDB - это директория поисковых машин и директорий, а вот как раз Vlib.org и есть самая настоящая директория, во всем же остальном я согласен с результатами исследования.
    URL
    EDU
    GOV
    Возраст
    1
    www.dmoz.org
    128,000
    761
    1999
    2
    dir.yahoo.com
    111,000
    2,060
    1995
    3
    www.lii.org
    10,400
    110
    1998
    4
    www.business.com
    2,420
    73
    1998
    5
    sbd.bcentral.com
    955
    23
    1999
    6
    www.whatuseek.com
    273
    2
    1996
    7
    www.cannylink.com
    204
    1
    1997
    8
    www.123world.com
    123
    2
    1999
    9
    www.americasbest.com
    99
    13
    1998
    10
    www.joeant.com
    106
    1
    2000
    11
    www.chiff.com
    105
    1
    1998
    12
    www.mavicanet.com
    64
    1
    1999
    13
    www.botw.org
    50
    1
    1996
    14
    www.elib.org
    43
    0
    2003
    15
    www.isedb.com
    33
    0
    2002
    16
    www.rlrouse.com
    27
    0
    2002
    17
    www.gimpsy.com
    23
    0
    2001
    18
    www.goguides.org
    22
    0
    2001
    19
    www.uncoverthenet.com
    18
    2
    2004
    20
    www.qango.com
    19
    1
    1998
    Я считаю количество и качество входящих ссылок отличным критерием измерения рейтинга категории (конечно в совокупности с другими критериями, о которых упоминалось выше), но что мне кажется еще более интересным, так это тот факт, как стремительно падает количество качественных ссылок. После того, как DMOZ предложил решение проблемы директорий, а Google - проблему поиска, мало каким из общих директорий удавалось приобрести хорошее количество ссылок с этих доменов. Это еще раз демонстрирует насколько важно вовремя прийти на рынок.
    Качественные ссылки - это не только ссылки с доменов gov и edu, ссылки же с этих доменов - это своего рода качественный фильтр. Обратите внимание, как быстро падает количество ссылок с edu доменов. Вот почему цена за включение в некоторые директории может доходить до 300 долларов… потому что ссылки оттуда - просто отменного качества.
    Такой резкий переход в количестве качественных ссылок - еще один феномен, благодаря которому можно с легкостью определить и поисковикам, в том числе спам ссылки. Так как приобретение ссылок зачастую происходит по одной и той же схеме, которая часто становится достоянием общественности.
    Чем ценны общие директории?

    Я симпатизирую тем категориям из списка выше, на которые я поставил ссылки. В этом списке есть и другие качественные директории, но я решил не ставить на них ссылки дабы не уподо***ться сайтам у которых и контента только объявления AdSense или каких-то партнерских программ.
    Среди тех категорий, на которые я не поставил ссылки, есть пара, которые заметны в результатах выдачи по многим запросам, но я все равно не поставил на них ссылки, потому что считаю, что им не хватает редакторского участия и они вскоре начнут выпадать из результатов выдачи.
    Кроме этих директорий, есть еще некоторые, в которых я регистрирую свои сайты, только для того, чтобы получить хорошие позиции в Yahoo! и MSN. Количество этих дополнительных директорий для регистрации во многом зависит от тематики сайта. Но если сайт - работает как представительство мощного офф-лайнового бизнеса, то скорей всего он может себе позволить дополнительные ссылки из категорий, а многие из ссылок появятся сами собой, как следствие вложений в уникальный контент и усиление бренда.
    Тематические директории

    Мне тяжело составить список лучших тематических категорий по двум причинам:
    • если вы не владеете темой, то тяжело оценить качество ресурса посвященного этой теме;
    • директории постоянно меняются.
    Например, я приводил одну директорию как образец качественной тематической директории, но недавно там появились объявления о продаже авиа-билетов (не соответствуют теме директории) и очень много объявлений от AdSense.
    Мыслите локально

    Некоторые из гео-директорий часто недооцениваются, а на самом деле среди них есть довольно качественные. Качественные гео-ориентированные директории приносят не просто целевой, а гипер-целевой трафик.
    Еще несколько советов по работе с директориями

    • Я использую Roboform для регистрации своих сайтов, но часто смешиваю текст ссылки и описание (особенно с тех пор как некоторые из поисковиков стали обращать внимание на слова и их комбинации).
    • Если уровень конкуренции достаточно высок, а у вас новый сайт, то для того чтобы появится в Google, вам понадобятся еще и другие виды ссылок.
    • Используйте различные варианты anchor text
    • Если название сайта (компании) содержит ключевые слова, вам следует в ссылках варьировать разные возможные варианты названий, так чтобы вы не выглядели спаммером в глазах поисковиков.
    • Если название сайта (компании) не тематическое, то вам понадобится всего лишь пара ссылок чтобы выйти в топы по такому запросу.
    • Ссылка из Yahoo! и DMOZ стоит двадцати ссылок из других категорий, не таких качественных.
    • Каждая качественная ссылка работает как генератор определенного количества низкокачественных ссылок в зависимости от категории (около 50 в среднем).
    Как поисковики относятся к директориям

    Yahoo! и MSN гораздо лучше чем Google учитывают ссылки из директорий (включая и некачественные директории).
    Недавно я приобрел 50 ссылок в течении пары дней для одного из одностраничных сайтов сделанном во Флеше. Тема не самая конкурентная - 3 бакса за клик, что в месяц приблизительно 600 долларов за второе место в PPC.
    Через две недели, после того как я начал приобретать ссылки для сайта, он попал в топ 10 по ряду релевантных запросов. Через два месяца (я прекратил приобретать ссылки) сайт вылетел с топов… После чего снова стал медленно подниматься.
    Yahoo! понадобилось больше времени чтобы среагировать, но как только он заметил сайт я оставался на первом месяце в течении 5 месяцев.
    MSN отреагировал так же быстро, как и Google, а возможно даже на пару дней раньше. После некоторых флуктуаций, которые длились не более пары дней, сайт вышел на позицию №1 и там и остается.
    Сейчас клиент находится на первом месте по запросу на свое название во всех основных поисковиках. Их позиции в Google были бы немного лучше, если бы я так не торопился с приобретением ссылок, а показал бы постепенное увеличение количества ссылок, но я предложил свои услуги за такую низкую цену, что это нормально. Более того, я уверен, что их позиции и дальше бы улучшались, если бы мы продолжили в том же духе.
    Почему люди думают, что директории перестали быть релевантными?

    • Как бизнес модель - директории не очень себя оправдывают, если конечно директория не очень узко-тематическая. (Если вы, конечно, не продаете PR тем наивным вебмастерам, которым еще только предстоит многое узнать).
    • Чем больше людей заняты производством информации, тем более качественной должна быть информация, чтобы заслужить ссылку.
    • Большинство директорий (платных) не добавляют никакой информации, полезный сайт или нет, и если - да, то для кого и в каких случаях.
    • Люди больше не раздают ссылки с такой легкостью как раньше. Директории сложно доказать простому посетителю, что ссылки расположенные в ней - более ценны, чем на других директориях.
    • Часто обновляемые сайты, как, например, блог по какой-то теме, привлекают больше трафика, чем статичные директории.
    • Google постоянно улучшает свой алгоритм. Он все лучше и лучше определяет качественные ссылки и фильтрует дубль-контент или почти дубль-контент.
    • Большинство общих директорий - это бесполезный спам.
    • Парочка улучшений в работе алгоритмов плюс социальные сети - заменят работу профессиональных каталогизаторов, за исключением тех из них, которые работают в узко-тематических областях.
    Почему директории как вид бизнеса переживают период спада?

    • По многим из причин из списка выше (перенасыщение рынка, уменьшение доверия, другие типы контента - блоги, вики, не говоря уже о социальных сетях).
    • Директории дополнительные рекламные площадки, цены на которых не оправдывают себя.
    • Большинство директорий поставляют так мало трафика и практически не представляют никакой ценности, поэтому не могут себе позволит как-то улучшить уровень качества предоставляемых услуг.
    И все-таки ссылки из директорий все еще представляют определенную ценность

    В заключение хочу сказать, что я, несмотря ни на что - люблю некоторые из директорий, однако это не мешает мне, немного более внимательно относится к ссылкам и их покупке. Я также считаю, что, несмотря на то, что большинство директорий низкого уровня не оказывает никакого влияния на Google, они могут повлиять на результаты выдачи в других поисковиках. Еще одним бонусом является то, что большое количество входящих ссылок может убедить конкурента уйти из бизнеса или же ему просто будет тяжело разобраться какие из ссылок стоящие, а какие - нет.
    Русский перевод под ред. И.Гурова
    * * * Еще новые переводы. На WebProjects.ru недавно опубликовано.
    • Редко используемые, но очень эффективные инструменты Интернет Маркетинга
      В статье рассказывается о таких важных моментах достижения успеха, как ориентации на клиента и внимание к потенциальному и реальному потребителю ваших товаров (услуг). Внимание к потребителям - очень ценный ресурс, который на практике, однако, используется редко и часто неправильно.
    • Нишевой маркетинг, три успешных бизнес-модели
      В статье рассказывается о 3-х моделях построения коммерческих сайтов. Автор предлагает для организации продаж организовывать сайты по 3-м моделям: мини сайты, сеть сайтов, посвященных отдельным узким вопросам, контентные сайты, содержащие максимум информации. С моей точки зрения, предлагаемые бизнес-модели спорны, ибо для максимизации продаж потребителю надо в любом случае предоставлять максимум информации т.е использовать модель "контентные сайты".

    ВЕСЕЛАЯ РЕТРОСПЕКТИВА Новая иллюстрация студии Naive - к статье Новости антипоисковых технологий
    * * * [​IMG] "Псевдосайт выглядит как обычный сайт. Отличить его от "нормального" можно разве что по косвенным признакам: отсутствие адреса компании, домен в зоне com или net (более дешевые), ошибки, отсутствие регулярно обновляемого раздела и некоторые другие. Вроде бы, хотела какая-то фирма сделать сайт, плохо получилось - бросила. На самом деле - нет. И задачи создания таких проектов не совсем обычные, и доходы вполне реальные.

    Примеры псевдосайтов приводить не буду, хотя недавно имел возможность наблюдать довольно длинный список. Бизнес понравился простотой и логичностью..."



    КАК ЗАДАТЬ ВОПРОС ЭКСПЕРТАМ?
    Cтатьи, исследования, экспертные ответы и оценки рассылки "Продвижение сайта с опытом экспертов" будут посвящены, прежде всего, тому, что больше интересует вас, наших подписчиков.
    Присылайте свои вопросы и пожелания по адресу subscribe@ashmanov.com. Ждем!
    Успехов Вам!
    Выпуск подготовил Андрей Иванов
    "Ашманов и Партнеры"

     
Статус темы:
Закрыта.