У нас есть страница поиска магазина на сайте нашего клиента. Конечный пользователь вводит свой почтовый индекс и радиус поиска, и мы отображаем результаты на карте Google.
Недавно мы начали замечать, что сайт достигает лимита бесплатного поиска по карте (примерно 25 000 в сутки) без заметного увеличения общего трафика. Я включил некоторые дополнительные журналы, чтобы попытаться найти проблему.
Оказывается, Googlebot проталкивает тысячи поисков на этой карте. Это небольшой образец:
2017-07-09 23: 56: 22,719 [7] INFO ShopLanding - [Тема 41] Google Maps: поиск G23 получен в порядке с 66.249.66.221 2017-07-09 23: 56: 35,469 [7] INFO ShopLanding - [Тема 10] Google Maps: поиск CA6 получен в порядке с 66.249.66.221 2017-07-09 23: 57: 24,563 [7] INFO ShopLanding - [Тема 48] Google Maps: поиск BN14 получен в порядке с 66.249.66.223 2017-07-09 23: 58: 00,970 [7] INFO ShopLanding - [Тема 42] Google Maps: поиск CB4 получен в порядке с 66.249.66.221 2017-07-09 23: 58: 13,064 [7] INFO ShopLanding - [Тема 54] Google Maps: поиск DY9 получен в порядке с 66.249.66.221 2017-07-09 23: 59: 18,722 [7] INFO ShopLanding - [Тема 59] Google Maps: поиск TS3 получен в порядке с 66.249.66.223 2017-07-09 23: 59: 53,223 [7] INFO ShopLanding - [Тема 49] Google Maps: поиск S45 получен в порядке с 66.249.66.221
Есть ли способ, которым я могу помешать Google проталкивать столько запросов? Это съедает значительную часть бесплатного пособия. Законные обыски, кажется, менее 200 в день.
РЕДАКТИРОВАТЬ
Сайт построен на C # ASP.NET. Поиск магазина использует POST, URL не изменяется при отправке. Я могу опубликовать образец журналов IIS завтра утром, чтобы подтвердить это поведение.
источник
POST
запросы на AJAX, хотя я проверю журналы IIS.Ответы:
Чтобы запретить googlebot выполнять поиск через googlemaps, поместите файл с именем
robots.txt
в корень вашего домена. например, https://www.wikipedia.org/robots.txtПример файла robots.txt:
Где / search-store / - страница, отправляющая запрос на карты Google.
Если это происходит не от Googlebot, вы можете отключить все сканирование на этой странице с помощью:
Обратите внимание, что это не остановит некорректно работающие скрипты, которые игнорируют robots.txt.
источник