Я хочу скачать весь сайт (с под-сайтами). Есть ли какой-нибудь инструмент для этого?
software-recommendation
UAdapter
источник
источник
--convert-links
в wget) не будут показывать сайты, которые открываются только путем отправки формы, среди прочего.Ответы:
Попробуйте пример 10 здесь :
–mirror
: включить опции, подходящие для зеркалирования.-p
: скачать все файлы, которые необходимы для правильного отображения заданной HTML-страницы.--convert-links
: после загрузки преобразуйте ссылки в документе для локального просмотра.-P ./LOCAL-DIR
: сохранить все файлы и каталоги в указанный каталог.источник
--wait=seconds
аргумент, если хотите быть более дружелюбным к сайту; он будет ждать указанное количество секунд между поисками.--no-parent
"никогда не подниматься в родительский каталог", взятый отсюда .httrack - это инструмент, который вы ищете.
источник
Поскольку
wget
вы можете загрузить весь веб-сайт, вы должны использовать-r
переключатель для рекурсивной загрузки. Например,источник
WEBHTTRACK WEBITE COPIER - это удобный инструмент для загрузки целого веб-сайта на жесткий диск для просмотра в автономном режиме. Запустите центр программного обеспечения Ubuntu и введите «webhttrack website copier» без кавычек в поле поиска. выберите и загрузите его из центра программного обеспечения в вашу систему. Запустите webHTTrack либо из лаучера, либо из меню «Пуск», оттуда вы сможете начать пользоваться этим замечательным инструментом для загрузки вашего сайта.
источник
Я не знаю о поддоменах, то есть о подсайтах, но wget можно использовать для получения полного сайта. Посмотрите на этот вопрос суперпользователя . Это говорит о том, что вы можете использовать
-D domain1.com,domain2.com
для загрузки разных доменов в один скрипт. Я думаю, что вы можете использовать эту опцию для загрузки поддоменов, т.е.-D site1.somesite.com,site2.somesite.com
источник
Я использую Burp - инструмент spider гораздо более интеллектуален, чем wget, и его можно настроить так, чтобы при необходимости избегать секций. Сам Burp Suite - это мощный набор инструментов, помогающий в тестировании, но инструмент-паук очень эффективен.
источник
Вы можете скачать всю команду сайта:
Пример :
источник
Если скорость имеет значение (а благополучие сервера - нет), вы можете попробовать puf , который работает как wget, но может загружать несколько страниц параллельно. Это, однако, не готовый продукт, не поддерживается и ужасно без документов. Тем не менее, для загрузки веб-сайта с большим количеством мелких файлов, это может быть хорошим вариантом.
источник