Я наткнулся на эту статью в моих новостях SEO сегодня. Кажется, подразумевается, что вы можете использовать Noindex:
директивы в дополнение к стандартным Disallow:
директивам в robots.txt .
Disallow: /page-one.html
Noindex: /page-two.html
Похоже, что это помешает поисковым системам сканировать первую страницу и не позволит им проиндексировать вторую страницу.
Эта директива robots.txt поддерживается Google и другими поисковыми системами? Это работает? Это задокументировано?
web-crawlers
robots.txt
googlebot
noindex
Стивен Остермиллер
источник
источник
disallow
Google перестает обнаруживать ссылки на родительской и дочерней страницах, если таковые существуют. В то время какnoindex
просто останавливает список страниц, он не останавливает обнаружение, в то время как запретить делает.nofollow
работает для мета-тегов. Было бы неплохо узнать, относится ли это к robots.txt .<a rel="no-follow">
тоже самое. Я не вижу причин, почему это будет рассматриваться иначе. Очевидно, что это не официально, и Джон Мюллер даже не рекомендовал использовать его в robots.txt, но кроме его твита мне не удалось найти много информации об этом.Noindex
директиву вrobots.txt
файлах как ошибку.Ответы:
Google раньше неофициально поддерживал
Noindex
директиву в robots.txt, однако в 2019 году они объявили, что директива больше не будет работать.Вот что говорит Джон Мюллер из
Noindex:
Google в robots.txt :Прежде чем Google объявил, что эта функция была прекращена, deepcrawl.com провел некоторое тестирование этой функции и обнаружил, что:
Учитывая, что Google прекратил эту функцию, она больше не должна использоваться.
Вместо этого используйте метатеги роботов, которые хорошо поддерживаются и документированы для предотвращения индексации:
источник