Обходят ограничение гугля в 1000 запросов - есть идеи как?

Тема в разделе "Вопросы новичков", создана пользователем kuka4a, 17 янв 2010.

Статус темы:
Закрыта.
  1. kuka4a

    kuka4a Постоялец

    Регистр.:
    3 окт 2006
    Сообщения:
    105
    Симпатии:
    6
  2. psknnn

    psknnn

    Регистр.:
    9 окт 2008
    Сообщения:
    379
    Симпатии:
    227
    тупо добавляют ключи, много, разных поочереди.... наприме делают 30запросов по 1к получают 15к, дубли просто фильтруют...

    ответ на вопрос )
     
  3. kuka4a

    kuka4a Постоялец

    Регистр.:
    3 окт 2006
    Сообщения:
    105
    Симпатии:
    6
    Не думаю - это ж сколько айпишников надо чтобы по этому алгоритму работать.
     
  4. usasoft

    usasoft

    Регистр.:
    9 янв 2008
    Сообщения:
    200
    Симпатии:
    107
    там и чекер pr у них, если заметил, т.е. используют прокси для парсинга и чека pr, остальное все psknnn рассказал)
     
  5. dump1111

    dump1111

    Регистр.:
    7 июл 2009
    Сообщения:
    266
    Симпатии:
    8
    Так а что если твой парсер просто будет юзать прокси, куки и т.д. По проксям вроде как не палиться.
     
  6. stranni

    stranni Создатель

    Регистр.:
    27 ноя 2009
    Сообщения:
    40
    Симпатии:
    3
    Я знаю только два варианта, через прокси сервера и сменой айпи айпи, еще еть скрипт для сапы, linkfeedator у него есть специальные боты, тоесть дополнительные скрипты которые можно раскидать по разным серверам и это помогает обойди ограничения яндекса на 1000 запросов с одного айпи, может и для гугли уже есть что то подобное, я правда об этом не слышал.
     
  7. Hilo

    Hilo

    Moderator
    Регистр.:
    31 мар 2008
    Сообщения:
    911
    Симпатии:
    562
    Я например при запросах и парсинге более 1к захожу на сам гугль и ввожу капчу.
    Но потом все-таки парсинг прекращается.
    Может действиетльно брать количеством за один запрос?
     
Статус темы:
Закрыта.