Моя база кода распределяется между несколькими средами (живой, постановка, Dev) и суб-доменов ( staging.example
, dev.example
и т.д.) , и только два должны быть разрешены для сканирования (то есть. , www.example
А example
). Обычно я изменяю /robots.txt
и добавляю Disallow: /
, но из-за общей базы кода я не могу изменить, /robots.txt
не затрагивая все (под) домены.
Есть идеи, как это сделать?
sub.example.com/robots.txt
, поэтому вам нужно будет что- то сделать, чтобы обслуживать разные ответы в зависимости от субдомена. Вам не нужно использовать mod_rewrite, но эту технику я видел несколько раз. Еслиrobots.txt
генерируется динамически, вы можете изменить ответ в коде на стороне сервера (например, PHP).robots.txt
может быть предотвращение индексации, а не обхода, путем отправкиX-Robots-Tag: noindex
заголовка ответа HTTP при обращении к таким поддоменам (что также можно сделать в .htaccess). Хотя я думаю, что предотвращение ползания, вероятно, предпочтительнее. (?)robots.txt
работает только если он присутствует в корне.Вам необходимо загрузить отдельный сайт
robots.txt
для каждого поддоменов, откуда он будет доступенhttp://subdomain.example.com/robots.txt
.Добавьте код ниже в
robots.txt
И еще один способ - вы можете вставить
<META>
тег Robots на все страницы.источник
/robots.txt
и добавляюDisallow: /
, но из-за общей базы кода я не могу изменить,/robots.txt
не затрагивая все (под) домены».Я бы удалил метатег со страницы html и динамически создал его в зависимости от вашего субдомена. Например, мы используем поддомен dev. для разработки. Итак, в событии подкачки у нас есть это:
источник