Как скачать страницу целиком(со всеми файлами) на php

Тема в разделе "PHP", создана пользователем olium, 25 мар 2010.

Статус темы:
Закрыта.
Модераторы: latteo
  1. olium

    olium Создатель

    Регистр.:
    12 авг 2008
    Сообщения:
    40
    Симпатии:
    0
    Задача стоит в скачке html-страницы со всеми файлами, так что бы потом можно было просмотреть слепок этой страницы и он выглядел как оригинал(то есть со всеми картинками, css и т.д.).

    Помогите примерами кода или хотя бы отдельными функциями :thenks:
     
  2. meresyew

    meresyew Постоялец

    Регистр.:
    16 янв 2010
    Сообщения:
    51
    Симпатии:
    20
    Плагин SrapBook к Mozilla Firefox
    https://addons.mozilla.org/ru/firefox/addon/427
     
  3. hipachka

    hipachka

    Регистр.:
    16 мар 2009
    Сообщения:
    391
    Симпатии:
    78
    можете попробовать вытянуть программкой teleport-pro например. А если хотите вытянуть php код то это врядли простыми телодвижениями получится сделать. А html без проблем...
     
  4. Digwnews

    Digwnews Читатель

    Заблокирован
    Регистр.:
    1 мар 2010
    Сообщения:
    127
    Симпатии:
    24
    Вам нужен php скрипт, осуществляющий это?
     
  5. olium

    olium Создатель

    Регистр.:
    12 авг 2008
    Сообщения:
    40
    Симпатии:
    0
    Да мне нужен именно php скрипт , а не патчи к браузеру и т.д.
     
  6. MaximMax

    MaximMax

    Регистр.:
    14 май 2009
    Сообщения:
    595
    Симпатии:
    76
    ЧТобы вытянуть ПХП надо знать программирования для проникновения в сам движок а чтобы сохранить CSS JS HTML Картинки ненадо не какие плагины просто жмеш в любом браузере ctrl+s И сохраняеш

    Но надо выбрать HTML - файлы с изображениями
    Воаля!
     
  7. olium

    olium Создатель

    Регистр.:
    12 авг 2008
    Сообщения:
    40
    Симпатии:
    0
    В тот то и дело что нет никакого браузера, а есть сервер на котором есть php скрипт, который должен зайти на страницу и сохранить ее на сервере, что бы потом можно было просматривать со своего сервера слепки страниц.

    Как вы не поймете браузер не катит, я же 100 страниц сохранять собираюсь :(.

    Я так понимаю алгоритм такой, сначала file_get_contents скачиваю страницу затем ищу картинки и css, потом подменяю урлы, сохраняю все это на сервер.Если у кого есть пример скинте пожалуйста :bc:
     
  8. MaximMax

    MaximMax

    Регистр.:
    14 май 2009
    Сообщения:
    595
    Симпатии:
    76
    Как можно рекомендовать пример не зная что ты задумал ссылку хоть дай что тебе именно надо какие коды ! Тут не форум телепатов!
     
  9. polyetilen

    polyetilen Заблокирован

    Регистр.:
    10 авг 2006
    Сообщения:
    814
    Симпатии:
    474
    может curl или wget подойдёт, если есть доступ в шелл, скачивает сайт с ограничением скорости и паузами, с заголовками браузера, в каталог (-P), -r рекурсионно по всем ссылкам, -b в фоновом режиме, создаётся лог скачивания
    PHP:
    <?
    $p shell_exec('wget --wait=20 --limit-rate=20K -r -b -P/home/server/lab/wget/dump -U Mozilla https://www.nulled.cc');
    ?>
    команды

    Перейти по ссылке
    Перейти по ссылке
    Перейти по ссылке
    Перейти по ссылке


    ещё есть версия wget для windows, локально потестировать

    Перейти по ссылке
     
    olium нравится это.
Статус темы:
Закрыта.