Artem_Butenko
inf-файлом разве что. Доки на oszone есть по ним.
inf-файлом разве что. Доки на oszone есть по ним.
Кажется уразумел. Т.е. если нет возможности увеличивать Dictionary Size, можно добиться лучшей компрессии уменьшением Word Size... ?
Вывод: для максимальной компрессии использовать Word Size 16 и маскимально возможный Dictionary Size? Речь идёт о текстовых файлах.
то результирующий размер на 3 Кб больше
на форуме Вам ответили что можно не использовать непрерывное сжатие, а использовать Размер блока - по Размеру файла
Это значит non-solid в Solid Block Size?
Поэкспериментировал ещё немного. Вижу, что для более крупных текстовых файлов всё-таки в большинстве случаев лучше Word Size 16, чем 32.
Используя 7-zip PPMd Ultra 768 Mb
как можно из командной строки упаковать саму папку?Из справки:
Примерыsubdir - это папка которую Вы хотите упаковать.
7z a archive1.zip subdir\
добавляет все файлы и подкаталоги из каталога subdir в архив archive1.zip. Имена файлов в архиве будут содержать префикс subdir\.
7z a archive1.zip Papka\
Вылетает сообщение, что файл не найден, а при запуске
7za.exe 7z a archive1.zip Papka\
Ничего не происходит
Error:
Incorrect command line
Упаковываем с настройками mem=1024m o=32 (выделенная память используется практически польностью), то можно получить такой же результат упаковки с настройками
mem=256m o=16, т.е. уменьшим порядок модели вдвое, уменьшаем требования к размеру модели в 4 раза, хотя если точнее говорить то настройки поиска были +\- 32 а стали +\- 16, т.е они уменьшились тоже в 4 раза.
В чём загвоздка чтобы архиватор сам анализировал данные и подбирал оптимальные параметры для достижения заданной цели (напр. максимального сжатия). Если от этого будет падать скорость, то в чём же проблемма поставить птичку включающую/отключающую эту радость. Кому надо, тот и ждёт, пока архиватор проанализирует, при каких параметрах для определённых данных получается лучшая компрессия... ?
стественно с минимальным сжатием. Сам прикинь - при этом потребуется выполнить минимальный объём вычислительной работы. Это же очень просто - один проход - собрать статистику и вычислить среднее число повторов и составить таблицу наиболее часто встречающихся элементов, второй сжать только эти наиболее часто встречающиеся элементы. Минимальное время. А остальные варианты алгоритма требуют нескольких циклов "статистика-сжатие". Это же элементарный алгоритм сжатия данных. Если мне память не меняет, этот алгоритм проходят в первом семестре первого курса института.
-mx1 минимальное сжатие (как я понимаю ) отняло почти 50 минут и заняло 3 гига
)) ppm моделирует каждый символ текста на основании предыдущих N символов. т.е. если скажем у нас были символы "коро", то с вероятностью 0.2 следующим будет "в", с вероятность. 0.3 - "л" и т.д. при увеличении глубины модели с 16 до 32 символов кол-во возможэных контекстов увеличивается не в два и даже не в 4 раза
Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172
Предыдущая тема: Longhorn и Blackcomb