Я загружаю данные, распределенные между несколькими файлами, которые не меняются после публикации.
Поэтому --timestamping
он недостаточно хорош, потому что постоянно проверяет, какой ресурс изменяется, что в моем случае совершенно бессмысленно.
--no-clobber
подошел бы идеально. К сожалению, --convert-links
по какой-то причине это не работает .
Были указаны и --no-clobber, и --convert-links, будут использоваться только --convert-links.
Я надеялся, что --backup-converted
это поможет, но это ничего не изменило (это работает для --timestamping
.)
Почему wget --convert-links --backup-converted --no-clobber --wait 1 https://example.com
игнорирует --no-clobber
и как это можно исправить?
--continue
? обычно это подразумевает продолжение загрузки, ранее прерванной. но если файл уже был получен, он ничего не делает.Ответы:
Любая возможность использования rsync? У вас должен быть ssh доступ к системе. (Я никогда не видел, чтобы rsync использовался для загрузок http: //).
Нечто подобное получит файлы, которые вы никогда не получали, и повторно заберет файлы, которые по какой-то причине перестали загружаться.
Это может не сработать для вас. Недостаточно информации о том, что вы пытаетесь сделать.
источник
Вы не можете использовать оба
--convert-links
и--no-clobber
. Вы получите это сообщение:Both --no-clobber and --convert-links were specified, only --convert-links will be used.
wget
можете выполнить то, что вы хотите, если вы укажете--convert-links
и--timestamping
. Но это будет работать только в том случае, если целевой сайт предоставляет информацию о метке времени файла в заголовках ответа.источник