[Архив] трабла с Multi search parser III

Тема в разделе "SEO Скрипты", создана пользователем Rodik, 17 мар 2007.

Статус темы:
Закрыта.
  1. Rodik

    Rodik Прохожие

    Не работает сабж.
    Выдаёт такую ошибку:
    Safe_mode отключен, стоит open_basedir

    может кто-нибудь знает как подправить функцию? или локально вырубить open_basedir? На всём сервере это сделать нет возможности. :bc:
     
  2. I_not

    I_not su -root

    Регистр.:
    9 янв 2007
    Сообщения:
    124
    Симпатии:
    50
    по идеи просто закаментировать это строки и все
    они вот это делают
    CURLOPT_FOLLOWLOCATION: При установке этого параметра в ненулевое значение, при получении HTTP заголовка "Location: " будет происходить перенаправление на указанный этим заголовком URL (это действие выполняется рекурсивно, для каждого полученного заголовка "Location:").

    обычно это не так нужно

    и на всяки убрал бы ссылки http://www.****.com/doors/msp/
     
  3. Rodik

    Rodik Прохожие

    лол, не, эти нужны скрипту- ошибку не выдаёт, но не работает.. =\
     
  4. I_not

    I_not su -root

    Регистр.:
    9 янв 2007
    Сообщения:
    124
    Симпатии:
    50
    кинь в личку ссылку на этот парсер, а то под хайдом пока этот парсер у меня, гляну его
     
  5. Zerrikanez

    Zerrikanez Прохожие

    А open_basedir никак не отключить?


    Вообще-то можно сделать чтение LOCATION из Header'a, потом опять курлом обращаться уже на LOCATION, если дальше тоже LOCATION, тогда еще раз.....
    Но несколько геморно....смотря сколько там етих LOCATION(не в скрипте, а в странице).

    п.с. щас посмотрю поближе
     
  6. Rodik

    Rodik Прохожие

    не.. никак..
    I_not
    чё-нибудь вышло?
     
  7. I_not

    I_not su -root

    Регистр.:
    9 янв 2007
    Сообщения:
    124
    Симпатии:
    50
    посмотрел скрипт, он и с CURLOPT_FOLLOWLOCATION не работает, сдесь дело в кривости скрипта, скорее всего парсилка не работает из за давности, т.к был редизайн поисковиков и парсер сбился, доводить этот скрипт надо до ума. Но лично мне легче все с нуля писать, есть у меня уже одна разработка которая грабит все страницы с яндекса по нескольким ключевикам и сохраняет в отдельные папки, но как всегда этот скрипт не для людей, т.е нет интерфейса
     
Статус темы:
Закрыта.