[FreeWare] Скрипт учета сайтов 1.2

Тема в разделе "SEO Скрипты", создана пользователем z3rg, 15 авг 2009.

Статус темы:
Закрыта.
  1. z3rg

    z3rg

    Регистр.:
    2 фев 2007
    Сообщения:
    731
    Симпатии:
    336
    Новая версия SCSv 1.2

    Скрин:
    [​IMG]

    Добавлено:
    Поддержка прокси, яндекс хмл, проверка позиций в яндексе, исправлена проверка Pr, исправлены глюки при авторизации, добавлена возможность выводить все категории, вывод графиков отделен теперь возможно просмотреть изменения индекса и беков по отдельности. Также добавлена возможность скопировать отсортированный массив.

    Доступ в панель- admin:root

    Обновление:
    замените все файлы кроме db.php и запустите update.php

    Установка:
    скопируйте все файлы, в db.php укажите базу и пасс, затем запустите install.php

    фак:
    Для полноценной работы скрипта у вас должен быть включен iconv, и curl.
    После установки зарегистрируйте ип в яндекс хмл.

    хоть и не надеюсь но Для тех кто ценит чужой труд - Z240049158839 или R305293547201

    скачать:
    http://forumseo.org/scsv12.rar

    поддержка:
    http://forumseo.org/showthread.php?t=233
    по всем форумам лазить нету времени поэтому лучше пишите если зарегины на офф (быстрее дам ответ)
     
    Artoha, stargazerrrrr, Zonderman и 19 другим нравится это.
  2. o_nix

    o_nix

    Регистр.:
    7 ноя 2007
    Сообщения:
    1.073
    Симпатии:
    1.037
    z3rg - скрипт мечта... чесное слово ...
    досих пор пользовался двумя разными скриптами для отслеживания статистики теперь буду пользоваться только SCS огромное спасибо ...
    С меня пиво :)
     
  3. vovan31

    vovan31 Создатель

    Регистр.:
    16 май 2008
    Сообщения:
    49
    Симпатии:
    4
    А если у меня динамический ip, каждый день новый, то мне каждый день надо в яндекс xml регистрироваться?
     
  4. o_nix

    o_nix

    Регистр.:
    7 ноя 2007
    Сообщения:
    1.073
    Симпатии:
    1.037
    z3rg - почемуто по крону выдачу не проверяет ... пишет 0 хотя там какбы 5е место :) если обновить вручную то определяет
    В остальном всё вроде работает
    Для удобства былобы логично добавить ещё один пункт "Выдача" к уже имеющимся "Статистика" "Тех. информация" и там на целой странице табличку организовать типа
    Код:
    домен    запрос   запрос2 запрос3
    сайт.ру 10/22/15 
    Где 10/22/15 позиция по запросу гугл/яндекс/рамблер соответственно
    Понимаю что это писец скока работы но очень хочется :D
    :thenks::thenks::thenks::thenks::thenks::thenks:
     
  5. z3rg

    z3rg

    Регистр.:
    2 фев 2007
    Сообщения:
    731
    Симпатии:
    336
    можешь не регистрировать, будет проверятся обычным способом

    должно проверятся


    по яше через хмл ладно а по гуглу и рамблеру я апи незнаю что парсить через курл, забанят сразу.
     
  6. o_nix

    o_nix

    Регистр.:
    7 ноя 2007
    Сообщения:
    1.073
    Симпатии:
    1.037
    z3rg - что если прикрутить вот этот готовый скрипт ...
    я им пользуюсь сейчас
    Он все данные хранит в файлах нужно будет написать скрипт который бы помещал все эти данные в MySQL и там уже отслеживание статистики и прочего либоже както сделать вывод в общую таблицу данных прямо из файлов ... но тогда статистики небудет тк в скрипте этого нет он только показывает текущую позицию и изменение посравнению с предидущим значением
    Думаю автору будет приятно если его скрипт осядет в разделе "Полезные сервисы" ну или по анологии своё сделать
    http://ermolaev.biz/positions-monitor/
    http://dim.ermolaev.biz/up/cup.zip
    [​IMG]
    Просмотрев с десяток специализированных платных и бесплатных сервисов по определению позиций сайтов в ПС, так и не нашёл идеально подходящего для себя. Пришлось потратить целый день и написть себе именно то, что хотелось бы. Человек я не жадный, поэтому выкладываю для всех желающих в паблик. Далее – несколько простых инструкций, как это заставить работать на сервере, так, чтобы вместе с утренним кофе, у вас была возможность посмотреть как изменились позиции подопытных сайтов по заданным запросам.

    Скрипт написан на PHP, информация хранится в файлах, базы не требуются.
    Основные настройки, которые есть на данный момент, хранятся в файле settings.php
    01.
    </code>
    02.

    03.
    $yandex_depth = 500 ;
    04.

    05.
    $google_depth = 500 ;
    06.

    07.
    $rambler_depth = 100 ;
    08.

    09.
    $yandex_region = 213 ;
    10.

    11.
    <code>

    Для Яндекса делается два замера: парсингом выдачи и через запрос к XML. Глубина замера по XML – 1000 позиций, а глубина парсинга регулируется переменными указанными выше. Регион для Яндекса устанавливается добавлением к строке запроса параметра lr, величина которого берётся из переменной yandex_region.

    Установка списка урлов и запросов. Немного необычно, но так как делалось для себя, пошёл по самому простому пути. Формат файла keys.tx:
    1.
    site1.ru :: key1 : key2 : key3 = site2.ru :: key4 : key5 : key6 = site3 :: key7

    Поисковые запросы могут состоять из любого количества слов. Сайтов может быть сколько угодно.

    Воизбежание блокировки ip-адреса поисковиками или перегрузки сервера, если список запросов слишком велик, внутри скрипта имеется большое количество разгрузочных пауз. Если есть желание контролировать большое количество запросов – лучше располагать скрипт на сервере, где по соседству лежит много других сайтов.

    Установка скрипта. Качаем архив, загружаем в любую папку на сервере.
    Позиции определяют следующие скрипты: goxml.php, goyandex.php, gogoogle.php и gorambler.php. Их ставим на исполнение по крону, с разницей в час (чтобы исполнялись по очереди). Index.php покажет таблицу с нынешними позициями и последними изменениями.

    У меня скрипт работает на хостинге BlueHost. Работает прекрасно. Единственная тонкость, о которой нужно вспомнить при установке заданий Cron – время на сервере соответствует физическому расположению хостига.


     
    VirKing и z3rg нравится это.
  7. z3rg

    z3rg

    Регистр.:
    2 фев 2007
    Сообщения:
    731
    Симпатии:
    336
    o_nix, не там через гет контент парсит, так не пойдет на локалке уже не спарсишь.

    очень информативно
     
  8. o_nix

    o_nix

    Регистр.:
    7 ноя 2007
    Сообщения:
    1.073
    Симпатии:
    1.037
    z3rg - у меня работает на денвере ... хотя и настраивать крон в винде это цирк :D
    перед тем как на хост ставить я на локалке проверял
    (кто такой get content представление имею слабое - поэтому сначала я всё на денвере тестю :))

    вещь красивая ... :) ябы даже сказал черезчур, хотя чёрненький дизайн просто супер но места съедает много ... можно и лучше и информативнее :)

    Насчёт статистики ... неуверен что она сильно нужна один фиг бороться приходится с конкретной сегодняшней выдачей :)
     
  9. z3rg

    z3rg

    Регистр.:
    2 фев 2007
    Сообщения:
    731
    Симпатии:
    336
    там алгоритм проверки как и был в скрипте старый, яша и гугл и так банил постоянно, ну ладно яша черех хмл проверяет, ну а гугл и рамблер? ладно еще индекс спарсить 1 страничку скачать, так тут же надо не 1 а 100.
     
  10. gelios

    gelios

    Регистр.:
    2 сен 2007
    Сообщения:
    181
    Симпатии:
    223
    Незнаю говорилось ли в предидущих топиках или нет, но есть небольше предложение сделать определение беков не по яхууу а по яндексу. По яху много показывает а по яше иногда нет.
     
Статус темы:
Закрыта.