Bulat_Ziganshin Цитата: распаковывать один каталог по частям довольно сложно, так что нет смысла это реализовывать непонятно для кого
Это понятно, что сложно, но вопрос возник из написанного в документации
Цитата: Таким образом, вы можете распаковывать архивы, содержащие хоть миллионы файлов, по частям, имея машину всего с 32 Мб ОЗУ.
Т.е. конечному пользователю у которого возникли сложности, придётся вручную делать распаковку, и не обязательно там будет 10 000 000 файлов.
Это крайность, если архиватор позволяет делать такие крайности, то он должен и уметь с ними работать.
Цитата: сейчас 10м файлов потребуют 5 гиг при упаковке
вот и вторая сторона - упаковка.
Цитата: этот вопрос я вообще не понял. fa берёт объём физ. памяти, и ограничивает алгоритмы 3/4 её объёма - это делается только для того, чтобы избежать своппинга. что ты там не устанавливай - на размере физ. памяти это не скажется
Ограничение Windows, для определённости Windows XP SP2 32bit.
Объём виртуального адресного пространства 4Гб, распределено:
2Гб - user mode (пользовательский режим), 2Гб - kernel mode (режим ядра)
Т.е. приложению (процессу) доступно примерно 2Гб виртуального адресного пространства.
Соответственно про физ.память речи не шло.
Цитата: если тебя ограничение в 1.5 гига не устраивает - используй -lc и крути это ограничение в любую сторону
вручную можно сделать многое.
Т.е. если есть приязка для снижения настроек по физической памяти
Цитата: Если 75% от общего объёма физической памяти недостаточно для выбранного алгоритма сжатия, то программа автоматически уменьшает размер словаря/блока/... так, чтобы уместиться в этот объём памяти.
то почему бы не сделать ещё и по виртуальной памяти, это возможно сложнее.
Цитата: и ограничивает алгоритмы 3/4 её объёма
1536Мб - это 3/4 от 2Гб, а у меня на сегодня 2.5Гб опер. памяти.
PS: о крайностях, о немного заострил внимание о них, что они существуют.