Я хочу знать статус HTTP сайтов, использующих Ubuntu. Я использовал curl
и wget
командую для этой цели. Но проблема в том, что эти команды загружают полную страницу веб-сайта, а затем ищут заголовок и отображают его на экране. Например:
$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8
То же самое происходит с Wget
командой, когда вся страница загружается и излишне расходует мою пропускную способность.
Что я ищу, так это: как получить код состояния HTTP без фактической загрузки какой-либо страницы, чтобы я мог сэкономить потребление трафика. Я пытался использовать curl, но не уверен, что я загружаю полную страницу или просто заголовок в свою систему, чтобы получить код состояния.
command-line
wget
curl
Джаффер Уилсон
источник
источник
curl -v
(--verbose
) - это удобный способ отладки того, что curl фактически отправляет и получает.Ответы:
curl -I
выбирает только заголовки HTTP; он не загружает всю страницу. Отman curl
:Другим вариантом является установка
lynx
и использованиеlynx -head -dump
.Запрос HEAD определяется протоколом HTTP 1.1 ( RFC 2616 ):
источник
С
wget
, вы должны использовать--spider
опцию , чтобы отправить запрос HEAD , как завиток:источник