Ищу оффлайн браузер, или граббер, или что-то похожее с такими возможностями:

Тема в разделе "Софт", создана пользователем Kalmikov1327828, 31 янв 2011.

  1. Kalmikov1327828

    Kalmikov1327828 Постоялец

    Регистр.:
    18 июл 2009
    Сообщения:
    55
    Симпатии:
    3
    Помогите пожалуйста программа(на крайняк скрипт), которой бы можно было скормить список сайтов, она бы заходила по каждому из url, скачивала определенное количество страниц сайта. Но самое главное: нужно чтобы соблюдалось правило: 1 сайт-1 папка. Просто некоторые оффлайн браузеры, если css файл сайта лежит на домене site.net, а сам сайт на домене site.com, создают отдельно папку site.net - кладут туда *.css файл, и папку site.com куда кладут копии страничек сайта. Мне же нужно чтобы все лежало в одной папке site.com.
     
  2. Jnas

    Jnas Писатель

    Регистр.:
    18 янв 2011
    Сообщения:
    5
    Симпатии:
    1
    Могу ошибаться, но в каких то версиях Teleport делал так чтоб всё кидала в одну папку (тобишь один линк, одна папка)
     
  3. DMS

    DMS Злодей

    Moderator
    • Супермодератор
    Регистр.:
    22 окт 2010
    Сообщения:
    632
    Симпатии:
    353
    Почитай описание про эти, Offline Explorer кажется так делает
    * BackStreet Browser
    * Check & Get
    * DownloadSite
    * Free Download Manager
    * GetLeft
    * Grab-a-site
    * HTTP Weazel
    * HTTrack
    * JOC Web Spider
    * Memorize Website Downloader
    * My Offline Browser
    * Offline Commander
    * Offline Downloader
    * Offline Explorer
    * PageNest Pro
    * Site-Thief
    * SuperBot
    * Teleport Pro
    * Web Boomerang
    * Web Cloner
    * Web Dumper
    * WebCopier
    * WebGulp
    * Webripper
    * Website Ripper Copier
    * WebTransporter
    * WebZip
     
  4. Ranger_Hunter

    Ranger_Hunter Постоялец

    Заблокирован
    Регистр.:
    20 апр 2009
    Сообщения:
    127
    Симпатии:
    48
    Попробуй вот это:

    Перейти по ссылке
    Системные требования:
    – Минимальное разрешение экрана 1024*768;
    - Windows XP (желательно SP2);
    – интернет канал в 128 и более кбит/с.
    Преимущества программы:
    – Универсальность: подходит под 90% сайтов в сети, может парсить не только статьи, но и картинки, ссылки (соответствующие заданным фильтрам), видео, файлы. Позволяет парсить несколько указанных частей web-страницы;
    – Парсер контента имеет большое количество методов добавления ссылок;
    – Позволяет скачивать чистый контент, только текст статьи, ничего лишнего;
    – Content Downloader может забирать как определенные части документа, так и найти текст статьи автоматически (вероятность корректного определения ~ 85%);
    – многопоточная загрузка контента;
    – Парсер контента позволяет сохранять изображения с заменой их имен;
    – Сохранение контента в формате txt, htm и csv (для WebAssist и других магазинов);
    – Возможность добавлять в загружаемые документы строки из указанных файлов с диска (при парсинге контента), добавлять в документы любой произвольный код/текст, изменять порядок вывода границ парсинга;
    – Импорт в популярные CMS + предпубликационная обработка (автокартинки, автометки и прочее);
    – Автоматическая чистка web-документов от скриптов, классов, стилей и лишних тегов (с возможностью задания списка тегов, которые не следует удалять);
    – Возможность создавать автонаполняемые сайты (отложенная публикация);
    – Гибкая настройка парсинга.
    Минусы программы:
    – Для работы с парсером контента требуются определенные навыки (рекомендуется ознакомиться с видео мануалом).
    Поддерживаемые CMS:
    – Zebrum (с возможностью отложенной публикации);
    – DLE (с возможностью отложенной публикации);
    – Zerber (подробнее);
    – Wordpress (с возможностью отложенной публикации);
    – Satellite-X и Autoblog-X;
    – Импорт по шаблону (подходит почти для всех CMS) (с возможностью отложенной публикации);
    + Создание статических html и php сайтов (с функцией автовставки кодов бирж).
    Методы добавления ссылок в парсер контента:
    1) Загрузка ссылок из файла;
    2) Вставка ссылок из буфера (можно загрузить любой список ссылок в программу);
    3) Загрузка ссылок из XML карты сайта;
    4) Создание списка ссылок по шаблону;
    5) Парсер контента имеет встроенный многопоточный сканер сайтов (с помощью него можно собрать все ссылки на статьи с сайта среднего размера за несколько минут);
    6) Имеется функция парсинга ссылок со списка страниц;
    7) Возможность парсинга ссылок с определенных частей страниц (методом визуального выделения + фильтрация), с помощью встроенного браузера.

    Программа позволяет сохранять только нужную информацию. Если заинтересовало, то:
    Здесь скидываемся на покупку по 20$ за один экземпляр программы. Нужно от 10 человек. С разрешения автора программы.
    Официальная розничная цена 37$
     
  5. mescalito75

    mescalito75 Постоялец

    Регистр.:
    9 сен 2006
    Сообщения:
    113
    Симпатии:
    49