Как удалить дубли "одинаковых пинг-сервисов" из списка

Тема в разделе "Тех. вопросы", создана пользователем NoNaMe_909, 18 июн 2008.

Статус темы:
Закрыта.
  1. NoNaMe_909

    NoNaMe_909 Постоялец

    Регистр.:
    10 мар 2008
    Сообщения:
    130
    Симпатии:
    2
    Вообщем есть куча списков пинг сервисов + хочу посёрчить и еще набрать для полного счастья ....



    Какой прогой можно удалить дубликаты одинаковых URLов из txt файла ?
     
  2. Drago

    Drago Читатель

    Заблокирован
    Регистр.:
    1 апр 2007
    Сообщения:
    75
    Симпатии:
    10
    для этих целей использую програмки под названием Raptor3
    (Официальный сайт этого софта на данный момент прекратил свое существование) и KeyWordKeeper 3 обе дополняют друг-друга.
    KWK почти для всего...
     
  3. gastraler

    gastraler Прохожие

    Если на серваке, то я вот такой скриптик юзаю:

    PHP:
    <?
    $ty=file("in.txt");
    echo 
    count($ty).'<br>';
    $gh=array_unique($ty);
    foreach (
    $gh as $val)
    {
    $wf=fopen("out.txt","a+");
    fwrite($wf,$val);
    fclose($wf);
    }
    echo 
    count($gh).'<br>';
    ?>
    Простенько, но эффективно

    Просто в in.txt кидаешь что надо, в out.txt уже выходить без даблов

    Можно на даневере юзать, если на своем компе нужно
     
  4. Johnny

    Johnny Постоялец

    Регистр.:
    28 мар 2007
    Сообщения:
    138
    Симпатии:
    24
    АллСабмиттером можно дубли удалить быстро и без гемора. Правда он для больших файлов мало подходит (тормозит), но для этой цели подойдёт идеально.

    А для чего пинг-сервисы используешь, если не секрет?
     
  5. BaziliX

    BaziliX Постоялец

    Регистр.:
    2 авг 2007
    Сообщения:
    85
    Симпатии:
    12
    Дубли в файле с пингсервисами можно ручками убрать. Если ручками гемор, то значит что у тебя много лишнего. Для пинга блога лучше юзать не более 80 пингсервисов, многие вообще тока штук 5 юзают, чтобы зря сервак не напрягать пауками.

    п.с. маленько оптимизировал скрипт
    PHP:
    <? 
    $ty=file("in.txt"); 
    echo 
    count($ty).'<br>'
    $gh=array_unique($ty); 
    $wf=fopen("out.txt","a+"); 
    foreach (
    $gh as $val

    fwrite($wf,$val); 
    }
    fclose($wf);

    echo 
    count($gh).'<br>'
    ?>
     
  6. LEE_ROY

    LEE_ROY

    Регистр.:
    26 янв 2007
    Сообщения:
    205
    Симпатии:
    20
    Text Duplicate Killer - хорошая тулзень !
     
  7. timandr

    timandr Создатель

    Регистр.:
    20 сен 2007
    Сообщения:
    26
    Симпатии:
    1
    Например так:
     
  8. bookinist

    bookinist Создатель

    Регистр.:
    15 фев 2007
    Сообщения:
    43
    Симпатии:
    12
    Еще проще (особенно рулит способ на огромных файлах:(

    sort -u file.txt > new.file
     
  9. quick

    quick Постоялец

    Регистр.:
    24 май 2008
    Сообщения:
    56
    Симпатии:
    24
    Excel: Данные->Фильтр->Расширенный фильтр (Чекбокс "Только уникальные записи").
     
  10. Tias

    Tias

    Регистр.:
    26 дек 2007
    Сообщения:
    438
    Симпатии:
    147
    в соседнем топике этот же сабж обсуждается, вот онлайновый сервис именно для этих целей
    http://4seo.biz/tools/12/
     
Статус темы:
Закрыта.