идея по сливу сайтов (аля шелл)

Тема в разделе "Как сделать...", создана пользователем El_Magnifico, 6 сен 2008.

Статус темы:
Закрыта.
  1. El_Magnifico

    El_Magnifico Команданте

    Регистр.:
    1 сен 2006
    Сообщения:
    653
    Симпатии:
    488
    появилась у меня мыслишка как можно делать рипы сайтов в обход архивации, которая порой отсутствует на серверах.

    итак. делаем скрипт который
    1. открывает и запоминает все директории на сервере.
    2. открывает по очереди все файлы (php, asp и тп.)
    3. сохраняет их локально в папку которую мы указываем
    4. остальные файлы картинки баннеры ит.п сохраняет в список аля (http://site/path/img.jpg) для качалок.

    что скажете господа знатоки :)
     
  2. ewg777

    ewg777

    Регистр.:
    6 авг 2007
    Сообщения:
    763
    Симпатии:
    321
    На php это сделать можно за 10-15 минут. А практическое приминение? Просто копия сайта? Бред ИМХО
     
  3. megadude

    megadude

    Регистр.:
    6 сен 2006
    Сообщения:
    184
    Симпатии:
    66

    1 - не открывает а рекурсивно обходит и составляет ассоц массив с именами путями размерами пермишенами
    2 - сериалайз этого массива и в текстовый файл
    3 - склейка всех не бинарных файлов в один большой текстовый с разделителями типа <-#-filename,size-#>
    4 - список для качалки
    5 - у себя на сервере обратный процесс ансериалайз и дробление с сохранением структуры большого файла
     
  4. El_Magnifico

    El_Magnifico Команданте

    Регистр.:
    1 сен 2006
    Сообщения:
    653
    Симпатии:
    488
    :) то что я писал простым языком - что бы другим была понятна идея... бред??? ты хоть раз сливал большой сайт в котором нельзя было применить функцию tar или gzip? применение этому есть. другой вопрос оптимально все это выполнить!
     
  5. PHP_Master

    PHP_Master

    Регистр.:
    3 фев 2008
    Сообщения:
    2.647
    Симпатии:
    591
    А не проще залить на хост класс для архивации и свернуть всё файло в архивчик?
    Напримерhttp://pear.php.net/package/File_Archive
     
  6. megadude

    megadude

    Регистр.:
    6 сен 2006
    Сообщения:
    184
    Симпатии:
    66
    Вот это бред. Как ты их оттуда заберешь? и плюс потеря структуры папок-пермишенов...
     
  7. D@nil

    D@nil

    Регистр.:
    1 окт 2006
    Сообщения:
    338
    Симпатии:
    122
    Получается El_Magnifico
    Просто хочет написать скрипт каторый будет сливать сайты.

    Зачем? для этого написано уже много софта.
     
  8. lift

    lift Читатель

    Заблокирован
    Регистр.:
    1 июл 2007
    Сообщения:
    2.226
    Симпатии:
    1.377
    Да что вы на парня накинулись то? Все круто юзают c99 и r57? А я вот в упор не могу с r57 подружиться. Хочет человек сделать еще 1 скрипт для слива - молодец.
    Кстати можно эмулировать tar архив без сжатия и для этого не потребуются ни внешние не встроенные архиваторы, сохраниться структура и выкачать можно будет любым менеджером закачки 1 файл и все.
     
  9. BACZ

    BACZ

    Регистр.:
    18 июн 2008
    Сообщения:
    610
    Симпатии:
    386
    на самом деле надо тупо пробовать
    например есть масса хостингов где в disable_function загорают все функции для выполнения команд, но при этом можно при помощи какого нибудь класса для zip и несложной прожки запихать файл0 в зип и слить шеллом или браузером
    а если туда же загнали и set_time_limit() то и архивация в зип и вот этот обход файлов одинаково заткнутся на половине выполнения
     
  10. El_Magnifico

    El_Magnifico Команданте

    Регистр.:
    1 сен 2006
    Сообщения:
    653
    Симпатии:
    488
    вот и скрипт задумываться для того что бы обойти set_time_limit(). например когда идет слив файлов, в скрипте после каждой успешной операции пишется порядковый номер файла который скачался.. и если есть лимит на выполнение - то можно всегда запустить скрипт вновь и продолжить там где он закончил.

    и если народ со мной не солидарен - что ж поделать. значит мы по разному смотрим на этот вопрос
     
Статус темы:
Закрыта.