Я использую Squid , программу для кеширования, для кеширования моего сайта. Однако для этого необходимо, чтобы к каждой странице обращались как минимум один раз, прежде чем Squid сможет ее кешировать. У меня вопрос: есть ли программа, которая будет быстро сканировать мой веб-сайт, получать доступ ко всем страницам один раз, чтобы Squid мог их кешировать.
ура
cache
squid
web-crawler
user2028856
источник
источник
export http_proxy
это постоянная настройка для направления всего будущего доступа в Интернет через порт прокси? Также для второй команды, что именно она делает? Я не собираюсь загружать свой веб-сайт «Я», если использую эту командуexport
будет действовать только на время этой командной оболочки и только внутри этой командной оболочки. Другие оболочки не будут затронуты, если они не запущены из оболочки, в которой вы работалиexport
. Так что простоexit
из оболочки или закройте окно терминала / командной строки, когда wget завершит работу, и все вернется на круги своя.