Ищется софт. Нужно удалить из file1 записи, содержащиеся в file2

Тема в разделе "Софт", создана пользователем gwkuo, 1 сен 2007.

Статус темы:
Закрыта.
  1. gwkuo

    gwkuo Прохожие

    Собственно сабж. С проблемой столкнулся давно, более-менее пристойного софта до сих пор не нашёл. Нужна быстрая работа с базами средней величины (50-100мб), конкретно удаление из базы1 содержимого базы2. Интересует по возможности не скрипты, т.к. они медленно работают в большинстве случаев.
     
  2. garcia

    garcia Прохожие

    Это текстовики?
    Импорти в MS Access оба файла (получится видимо 2 таблицы с 1 колонкой), затем делай запрос, который называется в визарде "Записи без подчиненных" - выдаст строки из таблицы 1, которых нет в таблице 2. Потом это все в текстовик. Довольно быстро выходит
     
  3. gwkuo

    gwkuo Прохожие

    Вообще спасибо, но хотелось бы сделать это без средств msoffice, т.к. он не установлен у меня, и не хотелось бы ставить тяжёлый access только из-за этого
     
  4. lift

    lift Читатель

    Заблокирован
    Регистр.:
    1 июл 2007
    Сообщения:
    2.226
    Симпатии:
    1.377
    А что за содержимое файлов тебе надо фильтровать? Если тебе надо сравнить 2 файла конкретно с адресами электронной почты, то пока самое быстрое из фри что я видел это elistpro.
    Правда 2 файла на 50-100 мб он может сравнивать несколько часов (или десятков часов в зависимости от мощи проца) но это всерано быстрее других подобных программ.
     
  5. gwkuo

    gwkuo Прохожие

    Для эл. почты я знаю. Да и нашёл уже программу, TextPipe это может, так что неактуально.
     
  6. Abbes

    Abbes Постоялец

    Регистр.:
    5 дек 2006
    Сообщения:
    76
    Симпатии:
    34
    А что ТекстПайп... текстпайп.. Вот ищу по форуму средство для фильтрования текста, и не могу найти. ТекстПайп - ну мег 30 файлы берёт ничё, да...
    А у меня файл 300 мег. Ну и задумывается ТекстПайп на 100% загрузки проца на неопределённое время. Хоть бы написал "буду 5 часов работать". Так ведь ничего не пишет. Вот и ищу... И всего-то - дублированные строки удалить надо.
     
  7. censored!

    censored!

    Регистр.:
    3 авг 2007
    Сообщения:
    293
    Симпатии:
    106
    Разбивай файл на 10 частей, проходись по каждой, потом сливаешь все части и еще раз проходишь.

    Raptor 3 (очень шустрый)
     
  8. Abbes

    Abbes Постоялец

    Регистр.:
    5 дек 2006
    Сообщения:
    76
    Симпатии:
    34
    Так я тоже мыслил, но не довёл до воплощения, чтоб время зря не тратить. Потому что в любом случае ведь проверяя по частям, после эти части надо собирать в кучу, и всё возрастающую кучу сравнивать с маленькими кусочками, в итоге, по моим расчётам, времени будет затрачено даже ещё больше. :)
    Да, Рэптор, кстати, он быстрее немного управляется. Но я ему чего-то не верю. Поскольку он в сравнении с ТекстПайпом совершенно разные выдавал результаты в удалении дублей.
     
  9. censored!

    censored!

    Регистр.:
    3 авг 2007
    Сообщения:
    293
    Симпатии:
    106
    Ну возьми для теста базу по-меньше, удали дубликаты и тем и другим, потом сравни (сравнение файлов есть в Total Commander-е, ну, или, кучей других прог) что пропустил один и что пропутил другой.
    Сколько с раптором работаю — всегда было все Ок.
     
  10. montega

    montega Создатель

    Регистр.:
    8 май 2007
    Сообщения:
    44
    Симпатии:
    0
    можешь выложить куда нить раптор, найти не могу, а очень нужен.
     
Статус темы:
Закрыта.