Сайт, над которым я работаю, переместил поддомен в другой поддомен с помощью перенаправления 301. Однако при проверке файла robots.txt старого поддоменов у него есть файл robots.txt, который запрещает поисковым роботам сканировать его.
Это правильный ход? Я считаю, что нет, потому что сканеры не смогут сканировать старый сайт, чтобы увидеть коды статуса 301.
seo
redirects
robots.txt
коврик
источник
источник
Ответы:
Ваши подозрения верны, с точным обоснованием, которое вы упомянули. Если вы запретите роботам получать доступ к старому сайту, они не смогут увидеть перенаправление 301.
источник
Да, именно - это не «правильный ход». Если вы реализуете перенаправление 301, предположительно для сохранения SEO, то блокирование перенаправляемых URL-адресов приведет к тому, что поисковые системы не увидят перенаправление и не проиндексируют новый контент.
источник
Я бы сохранил robots.txt как есть, но убедитесь, что на старых и новых страницах есть соответствующая версия тегов Canonical. Это поможет поисковой системе понять, что произошло.
источник