Как мне загрузить список файлов с файлового сервера, например, http://www.apache.org/dist/httpd/binaries/ ?
Я полагаю, я мог бы использовать wget, но затем он пытается получить все ссылки, а также HTML-файл. Есть ли лучший инструмент для достижения этой цели?
download
apache-http-server
wget
BinaryMisfit
источник
источник
Ответы:
Вы можете указать, какие расширения файлов
wget
будут загружаться при сканировании страниц:это будет выполнять рекурсивный поиск и только скачивать файлы с
.zip
,.rpm
и.tar.gz
расширениями.источник
Предположим, вы действительно хотите получить список файлов на сервере, не загружая их (пока):
в то время как «filter.awk» выглядит так
тогда вам, возможно, придется отфильтровать некоторые записи, такие как
источник
Ссылка: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Вы можете использовать следующую команду:
Пояснения к каждому варианту
wget
: Простая команда, чтобы сделать запрос CURL и загрузить удаленные файлы на наш локальный компьютер.--execute="robots = off"
: Это будет игнорировать файл robots.txt при сканировании страниц. Это полезно, если вы не получаете все файлы.--mirror
: Эта опция в основном будет отражать структуру каталогов для данного URL. Это сокращение,-N -r -l inf --no-remove-listing
которое означает:-N
: не восстанавливать файлы, если они не новее локальных-r
: указать рекурсивную загрузку-l inf
: максимальная глубина рекурсии (inf или 0 для бесконечного)--no-remove-listing
: не удаляйте файлы .listing--convert-links
сделать так, чтобы ссылки в загруженном HTML или CSS указывали на локальные файлы--no-parent
: не подниматься в родительский каталог--wait=5
: подождите 5 секунд между поисками. Чтобы мы не трогали сервер.<website-url>
Это URL-адрес веб-сайта, с которого можно скачивать файлы.Счастливого скачивания: smiley:
источник