Чем спарсит контент?

Тема в разделе "Вопросы новичков", создана пользователем dalera, 21 окт 2009.

Статус темы:
Закрыта.
  1. dalera

    dalera Создатель

    Регистр.:
    24 сен 2009
    Сообщения:
    42
    Симпатии:
    1
    подскожите прогу для парсинга контента с любых сайтов?
     
  2. капрал

    капрал

    Регистр.:
    2 окт 2008
    Сообщения:
    336
    Симпатии:
    45
    такого не бывает. а если и бывает то не качественно.

    качественнее под каждый сайт делать свой парсер.
     
  3. smithws

    smithws

    Регистр.:
    19 июн 2008
    Сообщения:
    481
    Симпатии:
    153
    XWeb Human Emulator, но конечно требует настройки и знания PHP.
     
  4. phoenix555

    phoenix555 Постоялец

    Регистр.:
    31 окт 2008
    Сообщения:
    113
    Симпатии:
    18
    Проще скриптом, называется feedmaster
     
  5. ants

    ants

    Регистр.:
    1 окт 2006
    Сообщения:
    224
    Симпатии:
    41
    проще делать шаблон для парсера (которых немерено вывалится в поиске по запросу "парсер контента" и на нулледе в том числе) под любой сайт
     
  6. ant1-pa

    ant1-pa

    Регистр.:
    3 ноя 2007
    Сообщения:
    448
    Симпатии:
    96
    юзай sibir text maker, либо vipbablo, они выполнены в виде скриптов, и отлично выполняют функции парсинга.
     
  7. TANAT0S

    TANAT0S Постоялец

    Регистр.:
    19 фев 2008
    Сообщения:
    111
    Симпатии:
    19
    Я Web Content Extractor использую.

    Если правильно настроить можно почти любой сайт спарсить.
    Вот ветка на нулледе:https://www.nulled.cc/showthread.php?t=131290&highlight=Web+Content+Extractor

    + есть видео по настройке. Найти не сложно(гуглим)
     
    jerri3000 нравится это.
  8. lolpw

    lolpw Постоялец

    Регистр.:
    16 апр 2008
    Сообщения:
    51
    Симпатии:
    2
    Web Content Extractor мне кажется оптимальный вариант
     
  9. PROSEO

    PROSEO

    Регистр.:
    28 фев 2008
    Сообщения:
    359
    Симпатии:
    134
  10. ns86

    ns86 Создатель

    Регистр.:
    9 окт 2008
    Сообщения:
    46
    Симпатии:
    4
    Качаем бесплатную программку ниже:

    WinHTTrack
    http://depositfiles.com/files/gip4gx2yc

    http://letitbit.net/download/8168.8bd5a0b6b888400a53b1e5467/httrack_3.43_2.rar.html

    Парсим ей сайт или несколько сайтов по нужной нам тематике.
    Копируем все html страницы этих сайтов в одну папку.

    Качаем прогу (она переводит страницы html в txt файлы!

    HTML2TXT
    http://depositfiles.com/files/ygudux395

    http://letitbit.net/download/3973.361529c2ae1531d265d24eb95/h2t_setup.rar.html

    Скармливаем ей ту самую папку с html страницами и тыкаем Convert All.

    Запускаем тотал командер и склеиваем все полученные txt файлы в один или пользуемся довольно шустрой прогой для склейки текстовиков:

    TXTcollector
    http://depositfiles.com/files/kgcqct3iy

    http://letitbit.net/download/1272.fbf1e03f175aaedc920023bb4/TXTcollector_2.0.0.rar.html

    Если кому надо на др. ФО, пишите, выложу!
     
Статус темы:
Закрыта.