критерии бана по плагиату

Тема в разделе "Вопросы новичков", создана пользователем lena berkova, 22 янв 2009.

Статус темы:
Закрыта.
  1. lena berkova

    lena berkova

    Регистр.:
    14 янв 2009
    Сообщения:
    441
    Симпатии:
    19
    текст должен быть уникален вплоть до предложений из пары строк? по какой длине строк в среднем можно определить неуникальность?
     
  2. SEOKinG

    SEOKinG

    Регистр.:
    2 дек 2008
    Сообщения:
    346
    Симпатии:
    69
    проверить уникальность, предложений, абзацев, не важно чего, можно программой http://textbroker.ru/files/DCFinder.exe
     
  3. Rocknrostov

    Rocknrostov

    Регистр.:
    23 окт 2008
    Сообщения:
    164
    Симпатии:
    15
    Вопрос по теме. Если я выложу текст на сайте 1, который уже есть на сайте 2, а через некоторое время сайт 2 удалит этот текст, то мой текст сайта 1 будет уникальным?
     
  4. IgVan

    IgVan

    Регистр.:
    8 май 2008
    Сообщения:
    212
    Симпатии:
    54
    С неуникальным контентом ты не будешь забанен. Ты попадешь в supplemental results (как видно из последних результатов выдачи, термин пропал, но суть осталась). Это "наказание за неуникальный контент", твой сайт может попасть в выдачу но только в том случае если гуглю больше нечего будет туда ставить.
    Если текст на сайте-источнике пропадет, то думаю, через какое-то время ты вылезешь из соплей. Если конечно, только на двух сайтах использовался этот уникальный текст.
     
  5. joefast

    joefast

    Заблокирован
    Регистр.:
    6 ноя 2007
    Сообщения:
    464
    Симпатии:
    74
    Алгоритм шинглов (которым так любят пугать оптимизаторов) учитывает каждое 9-ое слово - вот и считайте.

    За неуникальный контент можно получить бан, если этого контента слишком много.
     
    lena berkova нравится это.
  6. eshka

    eshka Создатель

    Регистр.:
    12 сен 2008
    Сообщения:
    13
    Симпатии:
    0
    Много слышал рассуждений по этому поводу. Приведу теперь свое. Яндекс считает уникальной ту статью, которая раньше появилась в Сети (читай проиндексировалась его роботом) - с этим кстати связано некая тема, када пацаны начинают воровать старый контент на крупных новостных порталах, который уже давно выпал из индекса. Ну а Google смотрит на рейтинг - чем выше рейтинг - тот и прав, т.е. если с сайта с PR3 возьмут статью на сайт с PR5, то первоисточником будет второй сайт.
     
  7. lena berkova

    lena berkova

    Регистр.:
    14 янв 2009
    Сообщения:
    441
    Симпатии:
    19
    как понять каждое 9 слово? т.е. если оно повторяется то значит плагиат?
     
  8. joefast

    joefast

    Заблокирован
    Регистр.:
    6 ноя 2007
    Сообщения:
    464
    Симпатии:
    74
    Сорри, невнятно выразился:
    1) берем 9 слов
    2) рассчитываем для них хеш
    3) если текст не закончился берем еще 9 слов (причем частично эти слова накладываются)
    таким образом получаем хеш страницы. Если рассматриваемая страница имеет совпадения хеша с какой-либо страницей из базы - найден дубль.

    В Яндексе, вроде, для каждых 9 хешей рассчитывают суперхеш и сравнивают уже его.

    Т.е. для того, чтобы бороться с алгоритмом шинглов нужно менять минимум одно слово из 9.
     
  9. Jacob

    Jacob

    Регистр.:
    18 окт 2006
    Сообщения:
    257
    Симпатии:
    18

    абсолютно мимо. саплементал с уникальностью контента имеет мало общего. поставить жирных ссылок и неуник мигом выйдет из соплей, и наоборот сделать 10к уникальных страниц и без ссылок свалится в сопли как милые :D
     
  10. betalik

    betalik

    Регистр.:
    22 июл 2008
    Сообщения:
    159
    Симпатии:
    5
    узайте ShinglesExpert для сверки статей, считаю где-то 5-10% схожести нормой, яша хавает на ура
     
Статус темы:
Закрыта.