Я получаю сообщение об ошибке «Не удалось загрузить ресурсы на 23 страницах»
https://search.google.com/test/mobile-friendly
Тем не менее, сообщение об ошибке (довольно недружелюбно) «Другая ошибка».
Когда я захожу на сайт в Chrome с помощью Инструментов разработчика и устанавливаю на панели инструментов устройства значение «Отзывчивый», он работает нормально, без ошибок, а когда я захожу в консоль поиска Google и выполняю Crawl-> Fetch As Google, я не получаю ошибок.
google
googlebot-mobile
Скотт К Уилсон
источник
источник
Ответы:
У меня было 6 случаев «других ошибок» (4 изображения и 2 таблицы стилей), и постоянное нажатие кнопки обновления не помогло. вот что я думаю окончательно исправил это для меня:
Я переключил 2 изображения с относительных на абсолютные пути. это исправило оба из них.
Я удалил type = "text / css" из моих тегов css head, которые называются 2 таблицами стилей. так что теперь у них есть только rel и href - вот так
<link rel="stylesheet" href="https://www.example.com/styles.css">
. это исправило оставшиеся 4 ошибки. (очевидно, оставшиеся 2 изображения были названы в таблицах стилей.)источник
«загрузить 23 страницы ресурсов», которая звучит так, как будто ваша страница имеет много ресурсов для загрузки.
Мобильный тестер не любит «тяжелые» страницы.
Существует множество способов, которые имитируют загрузку реального мобильного устройства с нестабильным соединением для передачи данных.
Сделайте страницу «светлее» - загрузка будет меньше «грубой», и страница загрузится быстрее, а значит, и «дружелюбнее».
источник
index.html
.Согласно этой ветке поддержки , «Другая ошибка» может заключаться в том, что робот Googlebot достиг предела числа запросов, которые он готов сделать к серверу, чтобы он не перегружал веб-сайт запросами.
Не было никакого определенного ответа, но это, кажется, ответ. Если это правда, я бы хотел, чтобы сообщение об ошибке было изменено на что-то вроде «Достигнут предел скорости» ...
источник
Проверьте файл robots.txt, чтобы узнать, не блокирует ли он GoogleBot для загрузки страницы.
Например, вы можете использовать CSS-скрипт,
<head>
который вызывает URL-адрес, запрещенный в вашем файле robots.txt.источник
robots.txt
?robots.txt
, то ничего не блокируется, так что это не проблема.