Алгоритмы сжатия
Итак, вопрос очень прост - есть текстовый файл, громадных размеров (прога логи ведет). Каким алгоритмом его ПРОЩЕ сжимать? Мне важен сам алгоритм и его описание.
Это если надо быстро написать алгоритм самому. Если же есть необходимость заюзать какие то готовые библиотеки - то тут полно на выбор. Зипом например.
Пасип, похоже буду LZW использовать, кое-что уже нашел. :-)))
А LZW у меня че-то тормозной получался.
А по поводу Хаффмана - класический алгоритм Хаффмана действительно двухпроходный, но есть же адаптивный алгоритм Хаффмана. Он как раз и применяется для сжатия потоков (например траффика сетевого). Там дерево статистики строится по ходу получения новых символов и постоянно обновляется. Отсюда кстати и отпадает необходимость сохранять в сжатых данных статистические данные - они сами восстанавливаются в процессе разжатия как в LZW. И результат тоже кстати дает зачастую на уровне классического Хаффмана.