Как скачать страницу целиком(со всеми файлами) на php

Статус
В этой теме нельзя размещать новые ответы.

olium

Создатель
Регистрация
12 Авг 2008
Сообщения
40
Реакции
0
Задача стоит в скачке html-страницы со всеми файлами, так что бы потом можно было просмотреть слепок этой страницы и он выглядел как оригинал(то есть со всеми картинками, css и т.д.).

Помогите примерами кода или хотя бы отдельными функциями :thenks:
 
можете попробовать вытянуть программкой teleport-pro например. А если хотите вытянуть php код то это врядли простыми телодвижениями получится сделать. А html без проблем...
 
  • Заблокирован
  • #4
Вам нужен php скрипт, осуществляющий это?
 
Да мне нужен именно php скрипт , а не патчи к браузеру и т.д.
 
Да мне нужен именно php скрипт , а не патчи к браузеру и т.д.
ЧТобы вытянуть ПХП надо знать программирования для проникновения в сам движок а чтобы сохранить CSS JS HTML Картинки ненадо не какие плагины просто жмеш в любом браузере ctrl+s И сохраняеш

Но надо выбрать HTML - файлы с изображениями
Воаля!
 
ЧТобы вытянуть ПХП надо знать программирования для проникновения в сам движок а чтобы сохранить CSS JS HTML Картинки ненадо не какие плагины просто жмеш в любом браузере ctrl+s И сохраняеш
Но надо выбрать HTML - файлы с изображениями
Воаля!

В тот то и дело что нет никакого браузера, а есть сервер на котором есть php скрипт, который должен зайти на страницу и сохранить ее на сервере, что бы потом можно было просматривать со своего сервера слепки страниц.

Как вы не поймете браузер не катит, я же 100 страниц сохранять собираюсь :(.

Я так понимаю алгоритм такой, сначала file_get_contents скачиваю страницу затем ищу картинки и css, потом подменяю урлы, сохраняю все это на сервер.Если у кого есть пример скинте пожалуйста :bc:
 
В тот то и дело что нет никакого браузера, а есть сервер на котором есть php скрипт, который должен зайти на страницу и сохранить ее на сервере, что бы потом можно было просматривать со своего сервера слепки страниц.
Как вы не поймете браузер не катит, я же 100 страниц сохранять собираюсь :(.
Я так понимаю алгоритм такой, сначала file_get_contents скачиваю страницу затем ищу картинки и css, потом подменяю урлы, сохраняю все это на сервер.Если у кого есть пример скинте пожалуйста :bc:
Как можно рекомендовать пример не зная что ты задумал ссылку хоть дай что тебе именно надо какие коды ! Тут не форум телепатов!
 
может curl или wget подойдёт, если есть доступ в шелл, скачивает сайт с ограничением скорости и паузами, с заголовками браузера, в каталог (-P), -r рекурсионно по всем ссылкам, -b в фоновом режиме, создаётся лог скачивания
PHP:
<?
$p = shell_exec('wget --wait=20 --limit-rate=20K -r -b -P/home/server/lab/wget/dump -U Mozilla http://www.nulled.cc');
?>
команды


ещё есть версия wget для windows, локально потестировать
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху