Вытянуть URL из IP адреса

Тема в разделе "Десктопный Linux", создана пользователем pikasun, 26 мар 2010.

Статус темы:
Закрыта.
Модераторы: Цукер
  1. pikasun

    pikasun Постоялец

    Регистр.:
    23 сен 2009
    Сообщения:
    117
    Симпатии:
    9
    Часто клиент требует расшифровки IP адресов. :tcl:
    Непонятно мол куда мы лазили. :nezn:
    Тянем информацию по netflow об IP.
    Кто-то приделывал софтинку о сборе информации по IP?
    Чтоб все в одном было.

    Whois
    robtex.com
    nslookup
    http заголовок

    и т.д

    :)
     
  2. svar0g

    svar0g Создатель

    Регистр.:
    13 янв 2009
    Сообщения:
    17
    Симпатии:
    0
    у вас принцип логирования немного не тот, надо не на том уровне его делать, вам бы поставить SQUID +SARG -довольно не плохой вариант, и веб-интерфейс есть. он анализирует HTTP запрос и на основании его уже делает выводы сколько куда траффа ушло, а на одном IP может быть множество сайтов
     
  3. pikasun

    pikasun Постоялец

    Регистр.:
    23 сен 2009
    Сообщения:
    117
    Симпатии:
    9
    Ставить squid не кошерно :)
    Наши клиенты не поймут еще:nezn: Да и издохнет думаю squid под 350 мбит канале.

    В общем чего-то уже сделано на перле для разбора IP.

    Не всегда конечно ясно, что за сайты - приходится лазать.
    На подходе получение title по запросу http.
    Самое сложное это упоминание в поисковиках по поводу IP.

    Прикрутили whois, sitedossier. Мы берем топ 20 IP из месячной статистики с которых больше всего скачал клиент.
    Ну и потом скриптом разбираем - вывод в html.

    Хочется конечно более автоматизированного решения.
     
  4. estar

    estar Создатель

    Регистр.:
    9 сен 2008
    Сообщения:
    22
    Симпатии:
    5
    С чего бы это ему вдруг дохнуть? Не замечал проблем ни на толстых каналах, ни на морях клиентов. С другой стороны, это всё-таки стандарт, к нему и плюшек достаточно, и ваши проблемы решены уже, без всяких доработок напильником. Впрочем, у каждого своя среда, так что может вам просто не подходит почему-то…

    С другой стороны, вы ж делаете уже что-то. Ну и доделайте просто то, что есть. Просто соединяете всё скриптом, что уже нарисовали, и смотрите только статистику. grep, sort, awk, perl и так далее никто не отменял, опять же. Можно ещё тянуть со страниц ключи и по ним определять категорию сайта. Сортировать по соотношению траф/категория или время/категория и пинать, пинать. В общем, поле для деятельности — насколько фантазии хватит.
     
  5. pikasun

    pikasun Постоялец

    Регистр.:
    23 сен 2009
    Сообщения:
    117
    Симпатии:
    9
    Есть такое слово - Госсвязьнадзор.
    Думаю прокси их не убедит:)
    А убеждают только сертифицированные ср-ва биллинга.
     
  6. estar

    estar Создатель

    Регистр.:
    9 сен 2008
    Сообщения:
    22
    Симпатии:
    5
    Ну если вы с ним мучаетесь, то конечно же… Гм, сочуствую в общем. Хотя ксть вариант допилить, написать пакет доков и сертифицировать. Хотя геморрой это ещё тот. С другой стороны, что-то я не так давно слышал про сертификацию как раз сквида с саргом, хотя возможно я и ошибаюсь.

    А потом — разве то, что у вас сейчас, их убеждает?
     
  7. pikasun

    pikasun Постоялец

    Регистр.:
    23 сен 2009
    Сообщения:
    117
    Симпатии:
    9
    Убеждает!Мыж операторы связи :)
     
  8. mefer

    mefer Создатель

    Регистр.:
    26 ноя 2007
    Сообщения:
    11
    Симпатии:
    0
    Ужас!!! Оператор связи не имеет работников с определенными и необходимыми знаниями для настройки программных средств?

    Как вариант это предоставлять ИП а днс резолв это уже их проблема. а днс запросы записывать это уже платно можно...
     
  9. pikasun

    pikasun Постоялец

    Регистр.:
    23 сен 2009
    Сообщения:
    117
    Симпатии:
    9
    Еще раз и по русски, пожалуйста! Вы о каких програмных средствах, уважаемый?
     
Статус темы:
Закрыта.