Защитить сайт от скачивания. как реализовано?

Тема в разделе "PHP", создана пользователем Albus_D, 29 авг 2010.

Статус темы:
Закрыта.
Модераторы: latteo
  1. Albus_D

    Albus_D Постоялец

    Регистр.:
    20 июл 2010
    Сообщения:
    84
    Симпатии:
    4
    (!!!) сорри похоже не в той ветке закинул =( модераторы перекиньте пожалуйста темку в разде "другие языки" - потому что видимо она относится больше к .js

    Подскажите как лучше всего защитить сайт от скачивания ?
    Вообще задача такова - есть сайт -на котором выводится уникальный контент и хотелось бы чтобы он уникальным остался. уникальность его обеспечивается не уникальностью текстом - а уникальным сервисом котоырй он предоставляет. реализовано всё на яваскрипте.
    Так вот я бы хотел сделать так чтобы человек не мог скачать веб страницу через Файл->сохранить как. вместе со всеми яваскриптами и т.д.
    Вот увидел на сайте: szgs.ru
    - файл - сохранить как не работает ни в ие , ни в опере, даже с отключеным яваскриптом - как это реализовано ?
    И второе:
    Есть куча описаний как заблокировать правую кнопку с помощью яваскрипта и т.п. - но бог с ним с исходным кодом страницы и правой кнопкой и т.п. - это всё равно не поможет. Мне главное чтобы человек не скачал файлы .js (но это видимо никак не реализовать) или скачал в таком виде чтобы не смог легко прочитать - закодированным например. это ещё и поможет если человек посмотрит адрес яваскрипта и просто вобьеёт его в строке браузера.
    Из того что известно мне это это технология от майкрософт:
    http://msdn.microsoft.com/en-us/library/d14c8zsc(vs.71).aspx
    Но это решение 2003 года кажется - и скорее всего работает в лучшем случае в IE и честно говоря не знаю поддерживается ли в последних версия даже самого IE. так вот может появилось что-то новое в этой сфере ?
     
  2. ShoxMaster

    ShoxMaster

    Регистр.:
    3 дек 2008
    Сообщения:
    393
    Симпатии:
    150
    Код:
    RewriteEngine On
    RewriteCond %{HTTP_REFERER} !^(.+)localhost(.+)$
    RewriteRule (.*).js - [F]
    
    .htaccess для запрета скачки js по рефереру. вместо localhost влепить свой домен.
     
    Albus_D нравится это.
  3. KillDead

    KillDead

    Регистр.:
    11 авг 2006
    Сообщения:
    890
    Симпатии:
    562
    оч просто:D. ие и опера по дефалту сохраняют файл с именем, которое берут из title, но титл оч длинный, длинее максимального размера, так что они вываливаются с ошибкой. лиса норм сохранила
     
    Albus_D нравится это.
  4. myweb

    myweb Среда обитания WEB

    Регистр.:
    10 сен 2007
    Сообщения:
    539
    Симпатии:
    246
    Защитить сайт от скачивания - выключить сервер, обрубать провода, тогда точно никто ничего не скачает!
    Сам процес просмотра страниц ето уже скачивания, то что вы хотите сделать ето защита от школьников, если профи захочить ваш контент, то сначало смотрит как рипнуть сайт, если двиг без багов, смотрим на соседей, обычно среди них есть слабое звено, ну если там уж ничо не получаетсо пишем парсер который делает паузы, ходит через прокси и тд ...
     
  5. -=Xardas=-

    -=Xardas=-

    Регистр.:
    17 сен 2008
    Сообщения:
    250
    Симпатии:
    58
    вариант "защиты от дурака", привязать js к домену

    var host = "www.site.ru";
    if(document.location.host == host)
    {
    //..выполняете js код вашего "приложния"..
    }
     
    Albus_D нравится это.
  6. CrashX

    CrashX В прошлом XSiteCMS

    Регистр.:
    6 июн 2008
    Сообщения:
    682
    Симпатии:
    112
    опера сохранила, код посмотрел
    проблем не вызвало,
    защиты не существет, уже была такая тема ...
    ---
    нет ничего совершенного, пример раньше был Зенд самой сильной защитой пхп, щас каждый школьник его разколбасит, теперь ион, но и тот уже декодируют... менее успешно но УЖЕ ) так что думаю остальное бессмысленно кому надо и там скомуниздят, тк придется потом еще и от принтскина защищатся тк его можно сделать)
     
  7. Albus_D

    Albus_D Постоялец

    Регистр.:
    20 июл 2010
    Сообщения:
    84
    Симпатии:
    4
    myweb,XSiteCMS

    да всё понятно. цель как раз чтобы не каждый школьник мог выдернуть - максимально усложнив задачу, потому что 90 % при сложностях уйдут искать что-то другое - похожее, ещё 5 % сломают мозг и забьют , ещё 4 % сломают мозг и вытянут всё же что им нужно, и только менее 1 % с улыбкой чпокнут всю защиту сходу =))

    -=Xardas=-

    ага ) в дополнение ко всему можно будет и так прикрыть =)) ещё чтобы не бросалось в глаза - www.mysite.ru - разбить на кусочки и в самой функции составлять из переменных)
     
  8. romander

    romander Писатель

    Регистр.:
    7 июл 2010
    Сообщения:
    9
    Симпатии:
    0
    Защитить контент небольшого объяма невозможно
    Ручками можно все вытащить
    Большой объем можно пробовать защищать от потоковых даунлоадеров.
    Например, использовать "плавающий" контент - он то в одном месте, то в другом.
    Можно ставить ловушки, вычисляющие и блокирующие по IP. Простейшая ловушка - невидимая человеку ссылка, а робот ее увидит и пойдет по ней.
     
  9. ec_stasis

    ec_stasis Создатель

    Регистр.:
    5 июл 2010
    Сообщения:
    24
    Симпатии:
    3
    А если этот робот будет поисковой бот? Заблокировать бота?
     
  10. theorc

    theorc Создатель

    Регистр.:
    23 авг 2010
    Сообщения:
    18
    Симпатии:
    1
    ограничить частоту обращения к серверу - не больше 3-5 странички в 1 сек например, можна через автоинкримент в мемкеше с временем жизни 1 сек, при частом превишении бан по ір и редирект на статическую страничку

    Добавлено через 57 секунд
    поискового робота можна приручить через crawl_delay в robots.txt
     
Статус темы:
Закрыта.