У меня есть два сайта, над которыми я сейчас работаю: корзина для покупок и еще один покупатель. Оба находятся под одним и тем же доменным именем, например,
http://example.com/first_url
http://example.com/second_url
Оба эти URL имеют тонны страниц под ними
http://example.com/first_url/product1
http://example.com/first_url/product2
http://example.com/first_url/product3
http://example.com/second_url/product1
http://example.com/second_url/product2
http://example.com/second_url/product3
Как запретить основной URL-адрес, /first_url
а /second_url
также все вложенные страницы и подкаталоги? Я думал что-то вроде этого, но я не знаю, работает ли это или нет, и был ли это правильный синтаксис
Disallow: /first_url/*/
Disallow: /second_url/*/
seo
robots.txt
Стивен Остермиллер
источник
источник
Ответы:
Вам не нужно использовать косую черту, чтобы заблокировать эти каталоги. Это будет работать:
На этой странице справки Google это достаточно хорошо освещено.
источник
Вы можете использовать это по умолчанию
robots.txt
:Звезда позволит запретить все, что в этой категории. Вы даже можете запретить одну конкретную вещь в этой категории, набрав этот конкретный URL.
источник