Какой процент "уникального" контента на странице оптимален?

Тема в разделе "Вопросы новичков", создана пользователем glas_naroda, 16 фев 2009.

Статус темы:
Закрыта.
  1. glas_naroda

    glas_naroda Постоялец

    Регистр.:
    4 авг 2007
    Сообщения:
    83
    Симпатии:
    15
    Собственно, вопрос: многие синонимайзеры, сделав свое черное дело, показывают процент отличия преобразованного текста от исходного. Например, какой-нибудь полученный текст уникален на 65%.

    Какой, исходя из вашего опыта, нужен этот процент уникальности, чтобы
    1). Google
    2). Яндекс
    посчитали статью уникальной и не наложили фильтры за дублированный контент?
     
  2. tvsm22

    tvsm22

    Регистр.:
    20 мар 2008
    Сообщения:
    321
    Симпатии:
    54
    Точный процент точно никто не назовет. :)
    Но, если текст проходит copyscape.com, антиплагиат и куски текста, вставленные в гугл ничего не выдают - все должно быть путем )
     
  3. BSemen

    BSemen Постоялец

    Регистр.:
    14 янв 2008
    Сообщения:
    132
    Симпатии:
    8
    Фильтр ведь накладывается не на все сайты, где есть определенный неункальный контент, а только на те, которые менее авторитетны. Или я не прав?
     
  4. Fast3r

    Fast3r

    Регистр.:
    30 июн 2008
    Сообщения:
    329
    Симпатии:
    39
    если бы еще получать от Яшки или Гуглы уведомление, что мол "все путем у вас уник текст на 100%", тогда бы можно было спать спокойно. А то наложат некий понижающий коэффициент на страничку или раздел, но в индекс выпустят... и мучайся потом с таким сайтом.
     
  5. bukа

    bukа Писатель

    Заблокирован
    Регистр.:
    23 окт 2008
    Сообщения:
    446
    Симпатии:
    138
    Вы правы на половину, чем больше у сайта тиц и pr тем менее вероятно что гугл и яндекс накладет фильтр именно на этот сайт. Тоесть если у вас украли материал сайты с высокими показателями, поисковики посчитают что это наоборот вы украли и вам будет наложен фильтр
     
  6. HellWorm

    HellWorm

    Регистр.:
    16 май 2007
    Сообщения:
    372
    Симпатии:
    60
    А фильтр накладывается на ту страницу где расположена статья или на всё содержимое сайта ?
     
  7. goodvin5

    goodvin5 Постоялец

    Регистр.:
    3 апр 2007
    Сообщения:
    133
    Симпатии:
    47
    В сети куча сайтов, которые публикуют статьи с других сайтов.
    Некоторые даже не ставят активные ссылки на первоисточник.

    И ничего, имеют и ТИЦ и PR.
    Почему такие сайты не уходят в бан, лично для меня загадка.

    :nezn:
     
  8. joefast

    joefast

    Заблокирован
    Регистр.:
    6 ноя 2007
    Сообщения:
    464
    Симпатии:
    74
    1) потому что очень сложно найти первоисточник;
    2) потому что помимо ворованного контента там может быть уник;
    3) потому что хорошо структурированный старый контент = новый контент
     
  9. Klepach

    Klepach

    Регистр.:
    31 окт 2008
    Сообщения:
    941
    Симпатии:
    250
    Если контент на 70% уникален то точно под фильтр не попадёш и 99% страници
    в индексе будут. На одном из своих сайтов, наиболее посещаемом все добавленные журналистами новости ручками переписываю, уже пол года страници в индексе только+ и не разу -
     
  10. RichardBeeter

    RichardBeeter Постоялец

    Регистр.:
    4 ноя 2008
    Сообщения:
    116
    Симпатии:
    19
    По-моему лучше всего 100% уникального контента...
    Да и дублированный контент не приводит к фильтрам, если его использовать с умом...
     
Статус темы:
Закрыта.