Это мой robots.txt :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Но Инструменты Google для веб-мастеров говорят мне, что роботы блокируют доступ к карте сайта:
Мы столкнулись с ошибкой при попытке доступа к вашему файлу Sitemap. Убедитесь, что ваш файл Sitemap соответствует нашим правилам и доступен в указанном вами месте, а затем повторите отправку: URL-адрес ограничен файлом robots.txt .
Я прочитал, что Инструменты Google для веб-мастеров кэшируют robots.txt , но файл был обновлен более 36 часов назад.
Обновить:
Нажатие на ТЕСТ карту сайта не приводит к тому, что Google получает новую карту сайта. Только SUBMIT Sitemap смог это сделать. (Кстати, я не вижу смысла в «тестовой карте сайта», пока вы не вставите туда свою текущую карту сайта - она не получает свежую копию карты сайта с адреса, который просит ввести перед тестом - но это вопрос на другой день.)
После отправки (вместо тестирования) новой карты сайта ситуация изменилась. Теперь я получаю «URL, заблокированный robots.txt . Карта сайта содержит URL, заблокированные robots.txt ». для 44 URL. В карте сайта ровно 44 URL. Это означает, что Google использует новую карту сайта, но она по-прежнему действует по старому правилу роботов (в котором все было запрещено). Ни один из 44 URL-адресов не находится в /wp-admin/
или /wp-includes/
(что в любом случае невозможно, так как robots.txt построен на муха тем же плагином, который создает карту сайта).
Обновление 2:
Ситуация ухудшается: на странице результатов поиска Google описание домашней страницы гласит: «Описание этого результата недоступно из-за файла robots.txt этого сайта - узнайте больше». Все остальные страницы имеют прекрасные описания. Там нет robots.txt или роботов меты блокировки индексации домашней страницы.
Я застрял.
Ответы:
Похоже, что Google, вероятно, еще не обновил кеш вашего файла robots.txt. Ваш текущий файл robots.txt (выше) не выглядит так, как будто он должен блокировать URL-адрес вашей карты сайта.
Там нет необходимости угадывать. В Инструментах Google для веб-мастеров (GWT) в разделе «Здоровье»> «Заблокированные URL-адреса» вы можете увидеть, когда файл robots.txt последний раз загружался, и был ли он успешным. Он также сообщит вам, сколько URL заблокировано файлом robots.txt.
Как упоминалось в моих комментариях, в GWT есть инструмент проверки robots.txt («Здоровье»> «Заблокированные URL-адреса»). Таким образом, вы можете немедленно протестировать изменения в вашем файле robots.txt (без изменения фактического файла). Укажите файл robots.txt в верхней текстовой области и URL-адреса, которые вы хотите проверить в нижней текстовой области, и он сообщит вам, будут ли они заблокированы или нет.
Кэширование robots.txt
Источник: Google Developers - Robots.txt Характеристики
источник
У меня была такая же проблема с моим сайтом, потому что во время установки WP я выбираю не отслеживать с поисковой системой или такой же вариант.
Чтобы решить эту проблему:
www.example.com/robots.txt
с помощью этой опции -> удалить из кэша для изменения содержимого или ...источник