Я прочитал ответы на этот вопрос, но они все еще оставляют мой вопрос открытым: кеширует ли Google robots.txt?
В Инструментах Google для веб-мастеров я не нашел способа повторно загрузить файл robots.txt .
Из-за какой-то ошибки мой robots.txt был заменен на:
User-agent: *
Disallow: /
И теперь весь мой контент был удален из результатов поиска Google.
Очевидно, я заинтересован в том, чтобы исправить это как можно скорее. Я уже заменил robots.txt , но не могу найти способ заставить Google обновить кэшированную версию.
google
google-search-console
robots.txt
Der Hochstapler
источник
источник
Ответы:
Вы не можете заставить их повторно загружать ваш robots.txt, когда вы этого хотите. Google будет повторно сканировать его и использовать новые данные всякий раз, когда они считают, что они подходят для вашего сайта. Они обычно сканируют его регулярно, поэтому я не ожидаю, что это займет много времени, пока ваш обновленный файл не будет найден, а ваши страницы повторно просканированы и повторно проиндексированы. Имейте в виду, что может потребоваться некоторое время после того, как новый файл robots.txt будет найден, прежде чем ваши страницы будут повторно сканированы, и еще больше времени для их повторного появления в результатах поиска Google.
источник
Я столкнулся с той же проблемой, когда начал свой новый веб-сайт
www.satyabrata.com
16 июня.Я был
Disallow: /
в моем файле robots.txt , так же , как Оливер. В Инструментах Google для веб-мастеров также было предупреждение о заблокированных URL.Проблема была решена вчера, 18 июня. Я сделал следующее. Я не уверен, какой шаг сработал.
www.satyabrata.com
Предупреждающее сообщение о заблокированных URL-адресах исчезло, и в инструментах Google для веб-мастеров отображается загруженный свежий файл robots.txt .
В настоящее время у меня есть только две страницы, проиндексированные в Google, домашняя страница и robots.txt . У меня есть 10 страниц на сайте. Я надеюсь, что остальные скоро будут проиндексированы.
источник
У меня возникла проблема, когда изображения были перемещены на отдельный сервер CNAME, а в папку с изображениями был помещен запрет. Я понял, что файл robots.txt, полученный из Инструментов для веб-мастеров, читается как инструмент Google. Как только он сказал мне, что нашел и прочитал robots.txt, я отправил его. Это нарушило трехмесячное эмбарго на сканирование изображений, когда Google сообщил, что читает файл robots.txt, но не изменил его паук, чтобы он соответствовал правилам, которые были изменены, чтобы разрешить использование папки изображений. В течение недели изображения снова были проиндексированы.
Может стоит попробовать. Известно, что Google иногда застревает и не может перечитать файл.
источник
Я надеюсь, что эта ссылка поможет вам сканировать ваши веб-сайты: https://support.google.com/adsense/answer/10532?hl=ru .
Удалите
/
из вашего файла robots.txt .источник
В моем случае проблема заключалась в том, что я использовал бесплатный сервис DNS под названием fear.org.
(мой бесплатный домен закончился
.us.to
)Как только я перешел на TLD, он начал работать.
источник