Стоит ли блокировать ботов с моего сайта и почему?
12
Мои журналы полны посетителей ботов, часто из Восточной Европы и Китая. Боты идентифицированы как Ahrefs, Seznam, LSSRocketCrawler, Yandex, Sogou и так далее. Должен ли я заблокировать этих ботов с моего сайта и почему?
Какие из них имеют законную цель в увеличении трафика на мой сайт? Многие из них являются SEO.
Я должен сказать, что вижу меньше трафика, если что-нибудь, так как боты прибыли в большом количестве.
Было бы не сложно заблокировать их, поскольку все они признают в своем пользовательском агенте, что они боты.
Вы можете заблокировать ботов, но это зависит от того, что вы хотите для своего сайта.
Вы можете заблокировать роботов поисковых систем, если вы не хотите, чтобы ваш сайт был проиндексирован в определенной поисковой системе.
Пример: Яндекс - русская поисковая система. Вы можете заблокировать его бота, если ваш бизнес не нацелен на Россию.
Вы можете заблокировать SEO-ботов, если не хотите использовать их решение для веб-аналитики.
Пример: Ahrefs - это решение для веб-аналитики. Вы можете заблокировать его бота, если не используете это решение для веб-аналитики.
Причина блокировки ботов:
меньше роботов переходят на ваш веб-сайт и больше пропускной способности приписывается реальным посетителям
быть в безопасности от вредоносных программ ботов
размер бревен
Причина не блокировать ботов:
Такие боты, как поисковые роботы, могут увеличить ваш трафик путем индексации вашего сайта.
Благодарю. Кстати, меня тоже посещают Линоде. UA говорит, что это скрипт Python. Должен ли я быть подозрительным?
Фрэнк Э
Если бы я был тобой, я бы не блокировал Линоде. Я не знаю, что именно из-за хостинга.
Zistoloen
А как насчет IPStrada? Я вижу их время от времени. Они никогда не регистрируют аккаунт.
Фрэнк Э
Как и Линоде. Роботы сканируют интернет, даже если вы или они никогда не регистрируют учетную запись. Но не волнуйтесь, это не имеет большого значения.
Зистолоен
4
Хотя попытка заблокировать ботов может помочь освободить ресурсы и очистить ваши логи, важно отметить, что robots.txt и даже использование мета-тега на страницах noindex на самом деле не мешает ботам посещать ваш сайт. Они по-прежнему могут время от времени сканировать ваш сайт, чтобы увидеть, был ли удален запрет от роботов. Многие боты даже не используют пользовательский агент и будут использовать стандартный пользовательский агент. Боты, о которых я говорю, - это, как правило, SEO-роботы, которые сканируют обратные ссылки, а не общие, которые вы найдете в поисковых системах.
Вместо того, чтобы блокировать ботов, вы должны просто учитывать эти боты при подсчете посетителей, а через некоторое время после активного мониторинга вашего сайта вы получите приблизительную цифру, то есть боты. Большинство людей заботятся об уникальных посещениях, и это исключает ботов, так как они постоянно возвращаются. В наше время существует множество серверов, разделяющих хостинг, которые могут обрабатывать этих ботов, кроме страниц, которые вы не хотите индексировать. Я не вижу причин, по которым нужно блокировать этих типов ботов. Конечно, у вас есть и вредоносные боты, но они точно не будут использовать пользовательский агент;).
Лично я считаю, что блокирование роботов - пустая трата времени, поскольку они не используют столько ресурсов вообще, SEO-роботы могут помочь, поскольку они размещают ваш сайт на страницах PR0, что, конечно, увеличивает ваш PageRank и там автоматически, так что вы не будете наказаны ими.
Логи Проблема
Вы должны использовать правильный просмотрщик журналов, который позволяет вам отфильтровывать определенные запросы, это облегчает просмотр ваших журналов. Хорошие зрители могут отфильтровать множество вещей, таких как обычные посещения, 404-е и так далее.
Почему SEO-боты сканируют обратные ссылки? Это только потому, что это то, что используют SEO-консультанты? Или есть еще одна зловещая цель?
Фрэнк Э
2
Привет Фрэнк, они сканируют обратные ссылки и регистрируют их, чтобы веб-мастера могли видеть, кто ссылается на них. SEO-компании тратят большие деньги, регистрируя обратные ссылки и поручая веб-мастерам выяснить, кто ссылается на них, когда была создана ссылка, была ли она удалена, подписана ли она или нет, какой якорный текст они используют и так далее. Google, Bing не предоставляют эту информацию, поэтому она является желаемой услугой и ценной для большинства веб-мастеров, желающих взглянуть на свою сеть ссылок.
Саймон Хейтер
Также ничего не стоит, что многие уязвимости, которые ищут люди, собираются с помощью поисковых систем, а не с помощью бота, сканирующего каждый сайт. Например, если модуль / плагин устарел, а известные эксплойты используют Google, чтобы найти эти сайты для их использования. Блокирующие роботы не защитят ваш сервер: P
Саймон Хейтер
@bybe Под vulablites вы имеете в виду «уязвимости»?
Хотя попытка заблокировать ботов может помочь освободить ресурсы и очистить ваши логи, важно отметить, что robots.txt и даже использование мета-тега на страницах noindex на самом деле не мешает ботам посещать ваш сайт. Они по-прежнему могут время от времени сканировать ваш сайт, чтобы увидеть, был ли удален запрет от роботов. Многие боты даже не используют пользовательский агент и будут использовать стандартный пользовательский агент. Боты, о которых я говорю, - это, как правило, SEO-роботы, которые сканируют обратные ссылки, а не общие, которые вы найдете в поисковых системах.
Вместо того, чтобы блокировать ботов, вы должны просто учитывать эти боты при подсчете посетителей, а через некоторое время после активного мониторинга вашего сайта вы получите приблизительную цифру, то есть боты. Большинство людей заботятся об уникальных посещениях, и это исключает ботов, так как они постоянно возвращаются. В наше время существует множество серверов, разделяющих хостинг, которые могут обрабатывать этих ботов, кроме страниц, которые вы не хотите индексировать. Я не вижу причин, по которым нужно блокировать этих типов ботов. Конечно, у вас есть и вредоносные боты, но они точно не будут использовать пользовательский агент;).
Лично я считаю, что блокирование роботов - пустая трата времени, поскольку они не используют столько ресурсов вообще, SEO-роботы могут помочь, поскольку они размещают ваш сайт на страницах PR0, что, конечно, увеличивает ваш PageRank и там автоматически, так что вы не будете наказаны ими.
Логи Проблема
Вы должны использовать правильный просмотрщик журналов, который позволяет вам отфильтровывать определенные запросы, это облегчает просмотр ваших журналов. Хорошие зрители могут отфильтровать множество вещей, таких как обычные посещения, 404-е и так далее.
источник