Paramon111 Чего? Какой ещё файл подкачки при >2 гигах оперативки???
Срочно отключи эту каку!
Подкачка существует для того, чтобы выгружать память, если её не хватает. А когда её реально много (>2ГБ) - она начинает только всё тормозить бесполезной выгрузкой...
Эх...
Bulat_Ziganshin Есть такой у меня вопрос по поводу сжатия.
Есть некий набор из нескольких файлов по 300-400 мбайт, различающихся примерно на 10-16 мбайт, а остальные данные одинаковы (разные по наполнению портативные версии программ в ThinApp контейнерах).
При этом каждый из файлов по отдельности реально жмётся до размера ~80…100 мбайт, а при наличии уникальных данных всего на 10-16 мбайт в каждом из файлов, результат должен получиться порядка 130…160 мбайт (НЕ больше).
Однако, по факту я не получаю такого сжатия, поскольку максимально обрабатываемый словарь (при "-m9x -lc- -ld-") всего 256 мбайт, что заметно меньше даже самого "мелкого" файла.
Немного порадовали обещания srep'а по ужиманию огромных массивов данных при мизерном расходе памяти (т.е., влепить 1-2 гигов словарь и вообще красота при расходе в ~200 мбайт), но похоже, что он не находит общее в разных файлах (не работает в solid-режиме). Совать всё в tar или прочую ерунду - глупо, ибо доступ к файлам нужен крайне быстрый без бесполезных распаковок и прочего.
Как вариант - можно пожать тем же 7z со словарём 384 или 512 мбайт, но хотелось бы иметь всё-таки ARC-архивчик.
Вопрос: что можно сделать в данной ситуации?
И второй вопрос - планируется ли х64 версия?