идея по сливу сайтов (аля шелл)

Статус
В этой теме нельзя размещать новые ответы.

El_Magnifico

Команданте
Регистрация
1 Сен 2006
Сообщения
662
Реакции
509
появилась у меня мыслишка как можно делать рипы сайтов в обход архивации, которая порой отсутствует на серверах.

итак. делаем скрипт который
1. открывает и запоминает все директории на сервере.
2. открывает по очереди все файлы (php, asp и тп.)
3. сохраняет их локально в папку которую мы указываем
4. остальные файлы картинки баннеры ит.п сохраняет в список аля (Для просмотра ссылки Войди или Зарегистрируйся) для качалок.

что скажете господа знатоки :)
 
появилась у меня мыслишка как можно делать рипы сайтов в обход архивации, которая порой отсутствует на серверах.

итак. делаем скрипт который
1. открывает и запоминает все директории на сервере.
2. открывает по очереди все файлы (php, asp и тп.)
3. сохраняет их локально в папку которую мы указываем
4. остальные файлы картинки баннеры ит.п сохраняет в список аля (Для просмотра ссылки Войди или Зарегистрируйся) для качалок.

что скажете господа знатоки :)
На php это сделать можно за 10-15 минут. А практическое приминение? Просто копия сайта? Бред ИМХО
 
1. открывает и запоминает все директории на сервере.
2. открывает по очереди все файлы (php, asp и тп.)
3. сохраняет их локально в папку которую мы указываем
4. остальные файлы картинки баннеры ит.п сохраняет в список аля (Для просмотра ссылки Войди или Зарегистрируйся) для качалок.


1 - не открывает а рекурсивно обходит и составляет ассоц массив с именами путями размерами пермишенами
2 - сериалайз этого массива и в текстовый файл
3 - склейка всех не бинарных файлов в один большой текстовый с разделителями типа <-#-filename,size-#>
4 - список для качалки
5 - у себя на сервере обратный процесс ансериалайз и дробление с сохранением структуры большого файла
 
1 - не открывает а рекурсивно обходит и составляет ассоц массив с именами путями размерами пермишенами
2 - сериалайз этого массива и в текстовый файл
3 - склейка всех не бинарных файлов в один большой текстовый с разделителями типа <-#-filename,size-#>
4 - список для качалки
5 - у себя на сервере обратный процесс ансериалайз и дробление с сохранением структуры большого файла

:) то что я писал простым языком - что бы другим была понятна идея... бред??? ты хоть раз сливал большой сайт в котором нельзя было применить функцию tar или gzip? применение этому есть. другой вопрос оптимально все это выполнить!
 
А не проще залить на хост класс для архивации и свернуть всё файло в архивчик?
Например
 
Получается Для просмотра ссылки Войди или Зарегистрируйся
Просто хочет написать скрипт каторый будет сливать сайты.

Зачем? для этого написано уже много софта.
 
Да что вы на парня накинулись то? Все круто юзают c99 и r57? А я вот в упор не могу с r57 подружиться. Хочет человек сделать еще 1 скрипт для слива - молодец.
Кстати можно эмулировать tar архив без сжатия и для этого не потребуются ни внешние не встроенные архиваторы, сохраниться структура и выкачать можно будет любым менеджером закачки 1 файл и все.
 
на самом деле надо тупо пробовать
например есть масса хостингов где в disable_function загорают все функции для выполнения команд, но при этом можно при помощи какого нибудь класса для zip и несложной прожки запихать файл0 в зип и слить шеллом или браузером
а если туда же загнали и set_time_limit() то и архивация в зип и вот этот обход файлов одинаково заткнутся на половине выполнения
 
на самом деле надо тупо пробовать
например есть масса хостингов где в disable_function загорают все функции для выполнения команд, но при этом можно при помощи какого нибудь класса для zip и несложной прожки запихать файл0 в зип и слить шеллом или браузером
а если туда же загнали и set_time_limit() то и архивация в зип и вот этот обход файлов одинаково заткнутся на половине выполнения

вот и скрипт задумываться для того что бы обойти set_time_limit(). например когда идет слив файлов, в скрипте после каждой успешной операции пишется порядковый номер файла который скачался.. и если есть лимит на выполнение - то можно всегда запустить скрипт вновь и продолжить там где он закончил.

и если народ со мной не солидарен - что ж поделать. значит мы по разному смотрим на этот вопрос
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху