Igor1973 Цитата: Хотелось бы узнать, в таком случае, а сколько у вас тратится исходящего трафика при открытии одной странички на этом форуме, при отключённой графике?
На этом форуме 1 - 1.5 кБ.
Если речь идет только об исходящем трафике, то может стоит разобраться, откуда он берется?
Если посмотреть логи, то видно, что в запросе содержатся различные заголовки http. Прежде всего, конечно, адрес страницы (кстати
Igor1973, на разной длине адреса уже будет разница в трафике). Затем идут всякие заголовки со служебной информацией - User-Agent, Host, Accept и.т.д. В общем случае довольно много всего, на несколько килобайт на один запрос наберется. А уж если надо передать кукисы, то и еще намного больше может быть.
Сжимающие прокси с клиентской частью на локальном компе (toonel, cproxy ...) все это упаковывают в один пакет со сжатием, но подставляют свои заголовки. Правда, запрос получается короче, так как никакой лишней информации в заголовках теперь нет - только адрес и, может, еще что-то необходимое. За счет этого получается экономия исходящего трафика.
Сжимающие сервисы типа WebWarper'a никак не могут сжать исходящий трафик, поскольку на стороне клиента нет специальной программы для сжатия (а браузер не умеет запрашивать в гзипе
). Трафик даже несколько увеличивается, т.к. ко всей исходной информации надо еще добавить, как минимум, адрес сервиса.
Если хочется уменьшить исходящий трафик, то сжимающие прокси целесообразно использовать и на сайтах с поддержкой сжатия. Правда, некоторые не жмут исходящий - например, TOptimizer.
S0ldier Цитата: Непонятно, зачем сжимать уже сжатые страницы... Ведь достаточно было добавить определение Content-Encoding страницы, и если она уже сжата с помощью gzip, то просто отдавать её пользователю...
Toonel, по-моему, так делает. CProxy - нет.
Igor1973 Цитата: Я ещё должен следить поддерживает сайт gzip или нет
и вовремя включать или выключать Cproxy!!!
Есть фильтр Proxomitron'a для прозрачной работы через WebWarper. Так вот он сам при первом обращении на сайт определяет, поддерживает тот сжатие, и запоминает это в списках. При дальнейших обращениях на этот сайт он направляет запрос либо через WW, либо напрямую.
Для toonel можно сделать такой распределитель, для cproxy, по-моему, нет - он всегда пережимает страницы, даже если они уже сжаты. Можно сделать обход по горячей клавише или вручную пополнять списки.