Беки по Яху

Можете подкинуть скрипт (PHP) для парсинга беков yahoo, можно старый и не рабочий, желательно скрипт с возможностью загрузить список урлов, он будет тихо шуршать собирать беки, также желательно возможность проверки на дубли доменов, чтоб по 100 страниц с каждого домена не собирать, что можете посоветовать?
Back Link Gear в топку, я не догоняю, если Yahoo показывает 500 беков, то что он 25 собрал, да еще половина с одного и того же домена? И пишет готова!!!
 
Можете подкинуть скрипт (PHP) для парсинга беков yahoo, можно старый и не рабочий, желательно скрипт с возможностью загрузить список урлов, он будет тихо шуршать собирать беки, также желательно возможность проверки на дубли доменов, чтоб по 100 страниц с каждого домена не собирать, что можете посоветовать?
Back Link Gear в топку, я не догоняю, если Yahoo показывает 500 беков, то что он 25 собрал, да еще половина с одного и того же домена? И пишет готова!!!

Можно хрефером, на ботматере есть ман как и что делать.

Если есть хрефер))))

А так да, метод перебора, ибо в любом поисковике по 1 запросу не больше 1к результатов.
 
Yahoo Backlinks Parser - Парсер беков Яху на php

Это называется "Спасение утопающего - дело рук самого утопающего" но может кто еще тонет, короче вот сидел написал себе парсер Yahoo Backlinks Parser
Нубский код не комментировать ;) я и так знаю, что он нубский, спасибо за помощь в разделе PHP
Без хайда можно не качать :ah: У меня работает, почему не работает или с ошибками у вас я не знаю, наверно звезды, не сошлись, или бубен заболел :D если баги есть, сообщайте погляжу...

PS/ Сперва жмем сохранить, а потом уже парсить... ссылки собираются в 2-х файлах пока Вы не нажмете, удалить!!!
Черпается стандартно по 1к беков.
Сколько можно поставить в очередь? - Много - Но бабнан будет раньше наверно... спарсенный урл удаляется из очереди, таймауты можно увеличить...
 

Вложения

  • yahoo-parser.jpg
    yahoo-parser.jpg
    86,9 KB · Просмотры: 30
  • yahoo.rar
    2,2 KB · Просмотры: 19
Проблема такая, что он не парсит ссылки, если указать не домен, а конкретную страницу из выдачи по запросу. Пишет ничего не найдено, хотя ссылки точно есть.
 
alex-bot благодарю за проделанную работу, особенно за строчку
http://siteexplorer.search.yahoo.com/export?p=".$url."&bwm=i&bwmf=s&bwmo=d
думал все в разы сложнее


Замеченные баги: не редиректит после сохранения списка - нужен ручной F5:
Warning: Cannot modify header information - headers already sent by (output started at C:\xampplite\htdocs\yahoo\b1.php:2) in C:\xampplite\htdocs\yahoo\b1.php on line 67

скормил не сушествующие домены результат улыбнул:
Собрано: 0 urls ;) backs.txt
Уникальных URLs: 2 urls ;) backs-unic.txt
это от того, что он пустые строчки в backs-unic.txt пишет, потом их как домены считает...
2 _sergey_
проверял для отдельных страниц сайта тоже работает, покажи url, c которым не справился
 
Похоже он их не с яху спарсил


ссылок не дает, завернуть бы яззл на прокси посмотреть откуда он тянет...
 
Похоже он их не с яху спарсил
*** скрытое содержание ***
ссылок не дает, завернуть бы яззл на прокси посмотреть откуда он тянет...
Не знаю. Возможно, но все остальные ПС были отключены. Пробовал и по другим страницам.



 
И все же, где взять бесплатную рабочую софтину, которая быстро складывает хотя бы эти 1000 ссылок с Яхи в один файлик?
 
Универсальный парсер Agress Parser.

...
Вот настройки для парсера Yahoo Site Explorer (там можно парсить беклинки конкурентов) В этом случае запросы будут доменами например umaxforum.com и тогда мы пропарсим беки умакса :
url-AbsoluteUrl-http://siteexplorer.search.yahoo.com/advsearch?p=link:{REQUEST}&bwm=i&bwmo=d&bwmf=u
UntilTextAfter-<a href="{TEXT}"
UntilNextLinkAfter-<a href="{NEXTLINK}"
Pattern-{TEXT}
...

hxxp://life-is-riddle.tk/operacionnye-sistemy/universalnyj-parser-agress-parser/
 
Назад
Сверху