Мне не нравится, что я вижу много 404 ошибок в access.log моего веб-сервера. Я получаю эти ошибки, потому что сканеры пытаются открыть файл robots.txt , но не могут его найти. Поэтому я хочу разместить простой файл robots.txt , который предотвратит появление 404 ошибок в моем файле журнала.
Какой минимальный допустимый файл robots.txt позволяет сканировать все на сайте?
robots.txt
Бессарабов
источник
источник
Лучший минимум
robots.txt
- это совершенно пустой файл.Любые другие «нулевые» директивы, такие как пустые
Disallow
илиAllow: *
не только бесполезные, потому что они не используются, но и добавляют ненужную сложность.Если вы не хотите, чтобы файл был полностью пустым - или вы хотите сделать его более понятным для человека - просто добавьте комментарий, начинающийся с
#
символа, например# blank file allows all
. Сканеры игнорируют строки, начинающиеся с#
.источник
Я бы сказал это;
Это позволит Google сканировать все, но не позволит Google сканировать вашу панель aadminn. Что является идеальной ситуацией для вас.
источник