Можно ли немного защитить сайт от программ типа TeleportPRO?

Тема в разделе "Вопросы новичков", создана пользователем glaz, 18 сен 2009.

Статус темы:
Закрыта.
  1. glaz

    glaz Постоялец

    Регистр.:
    11 дек 2008
    Сообщения:
    74
    Симпатии:
    7
    Собственно сабж.

    Нужно защитить сайт от программ, которые сливают сайт полностью.
    (Offline Explorer, Download Master, Mass Downloader, HTTrack, TeleportPro)

    Нашел один пост на форуме, как можно закрыть их в robots.txt при помощи user-agent:


    http://www.nulled.ws/showpost.php?p=222141&postcount=9


    На сколько этот список актуален?

    Есть ли какие-нибудь еще способы защиты от таких софтин, т.к. user-agent, на сколько я знаю, можно менять...

    Спасибо за ответ:)
     
  2. nonenone

    nonenone

    Регистр.:
    18 сен 2007
    Сообщения:
    453
    Симпатии:
    90
    запрет по юсерагенту не проконает, в софтинах для скачки сайтов его можно вручную задавать
     
  3. glaz

    glaz Постоялец

    Регистр.:
    11 дек 2008
    Сообщения:
    74
    Симпатии:
    7
    Это в первом посте учтено:) Поэтому спросил, про альтернативные способы защиты. User-agent может (хотя я сомневаюсь) отсечь хоть какой-то процент, но учитывая то, что сайт скачивать будут не просто так, то причину не скачивания разрулят быстро.
     
  4. SiriusBlack

    SiriusBlack

    Регистр.:
    29 дек 2007
    Сообщения:
    366
    Симпатии:
    45
    Поковыряйся в скриптах Ласто - особенно в последнем блоге - там стоит хорошая защита от всяких качалок, которые просто сам перечисляешь в настройках.

    Вот такие стоят по дефолту:

    Downloader=
    Download Master=
    Emailsiphon=
    Emailwolf=
    Getright=
    Gozil=
    Htmlparser=
    Ms Frontpage=
    Msproxy=
    Offlin=
    ReGet=
    Superbot=
    Teleport=
    Teleportpro=
    Webbandit=
    Webcopier=
    Web Downloader=
    Webstr=
    Webzip=
     
    glaz нравится это.
  5. General Fizz

    General Fizz Боевой Генерал :)

    Регистр.:
    11 апр 2007
    Сообщения:
    753
    Симпатии:
    396
    Модуль Апача mod_evasive спасет гиганта мысли. После установки оного необходимо понаблюдать за сайтом в течении примерно месяца и выставить оптимальные настройки.

    Принцип работы модуля - (временный) бан IP, с которых поступает более чем n запросов в единицу времени.
     
  6. Ad1ce

    Ad1ce Постоялец

    Регистр.:
    18 авг 2009
    Сообщения:
    109
    Симпатии:
    25
    Как вариант, можно реализовать при помощи php. Создавать на страничках динамическую ссылку, видимую только поисковикам. Соответсвтвенно если не поисковый айпишник зашел на эту ссылку - в бан.
     
  7. ram222

    ram222 Da Vinci

    Регистр.:
    27 апр 2009
    Сообщения:
    761
    Симпатии:
    76
    Только скрипты или что то подобное, которые отделят прогу от человека.
    Смысл в том , что прога тыкается по всем всем внутренним ссылкам и очень быстро.
    Человек же так не может , он почитает..перейдёт на другую страницу только тогда, когда посчитает данную страницу ненужной, а на это уходит время.
     
  8. looney

    looney Создатель

    Регистр.:
    3 апр 2006
    Сообщения:
    11
    Симпатии:
    1
    Cогласен, скрипт или модом для Апача. И еше как вариант можно сделать типа замкнутого цикла, когда одна и таже страничка качается по кругу. Либо еще проще, периодически создавай/удаляй файл-бомбы (от 4 Гиг к примеру).
     
  9. joggy

    joggy Писатель

    Заблокирован
    Регистр.:
    30 авг 2009
    Сообщения:
    36
    Симпатии:
    0
    да, обычно у людей каналы сильные, сделать нужно ограничение не более 20 заходов за 20 секунд, потом бан по ИП на 20 минут, любую программу вырубать будет.
     
Статус темы:
Закрыта.