Добрый день ASE_DAG
Цитата: > команды как и с wget
Не понял, честно говоря.
Имел ввиду что (-g -N0 ) похожи на команды wget (-x -r -w3)
Цитата: > Вы работаете с Linux?
Ну да, с Дебианом, а какое это имеет значение? Или вы про Баш и компанию?
Просто собираюсь поставить на Vmware -Linux для пробы, поэтому и интересуюсь возможностями.
Цитата: Тогда имеет смысл сменить инструмент, а именно попытаться автоматировать поведение Файрфокса
- интересно, а как его можно автоматизировать?(кроме использования scrapbook+ конечно)
Цитата: В принципе, если озадачиться, то можно набросать юзер-скрипт с нуля,
-А Что за скрипт? Дело в том что сайт, как говорится, у меня "в кармане"
Пришлось разбить закачку на несколько этапов. Для начала поработал offline explorer и закачал только html с (не изменёнными) адресами далее, в дело пошел textpipe (извлечение мультимедийных ссылок и графики), а затем scrapbook + HandyCache (опция -загрузка отдельных файлов,)- на такой ход скрипты защиты не реагируют и при висячей странице можно качать сколько угодно. Просто интересно, какой еще вариант можно было использовать?
Но с этим сайтом ситуация более- менее ясна, в вот этот (http://members.euro-pornstars.com/index.php) - настоящая проблема, файлы видео и zip можно качать всего лишь отдельными файлами, иначе авторизация слетает, и по несколько штук в очереди - интересно как можно автоматизировать процесс чтобы закачивать хотя-бы штук по 50 за один раз? (кстати, про него я говорил когда упоминал службу safebrowsing-cache.google.com -эти файлы видны особенно хорошо когда работаешь через Handy Cache)Спасибо.
Да вот еще проблема, - загружал через HTTrack Website Copier файлы из текстового списка, так он на следующий день выдал - "достигнут предел в 100.000 файлов" и оборвал закачку, - а где установлено это ограничение (я где-то видел, что поддерживается до 1 миллиона ссылок) и как его убрать?