Я создаю сайт Wordpress для одного из родителей 11-летнего ребенка, который хотел что-то, чтобы увековечить ее дочери в спортивных, академических и личных достижениях. На сайте есть фотографии и видео ее и ее друзей, биографические данные и сообщения в блоге. Домен зарегистрирован в частном порядке на имя моей компании, я не добавляю их в консоль Google, а другие SEO сокращается. Там нет фамилий или физических адресов. Я хочу иметь в виду как можно больше безопасности в Интернете, чтобы скребки не могли ее выхватить и т. Д., Посторонних глаз и т. Д. Я, вероятно, параноик и, как и все мои сайты, думаю, что это может привлечь больше трафика, чем на самом деле, но я думаю, что это стоит расследования и стоит расставить все точки над "я". Веб-сайт ребенка в отличном вкусе, и родитель очень практичен,
Есть ли надежные методы, которые я могу использовать для повышения безопасности в Интернете для этой 11-летней девочки и ее сайта?
источник
robots.txt
Файл с нужным содержанием может держать все законные боты вне. Тяжелая часть - остальное. Многие из них могут быть скрыты, если адрес сайта трудно найти.Ответы:
Может быть, я параноик, но похоже, что это должен быть полностью приватный блог / сайт. то есть. Пароль защищен. Кто именно является целевой аудиторией?
Помимо аспекта безопасности (не позволяющего недобросовестным лицам находить и использовать контент), этот вид контента звучит так, как будто он созрел для издевательств со стороны других школьных "друзей". Контент, который может быть вначале нормальным - для 11-летнего - может стать неловким через несколько лет.
Это может показаться отсталым? Способ скрыть содержание от Google (то есть. «Хороший» бот) является использование
robots
мета - тег (илиX-Robots-Tag
заголовок) и , возможноrobots.txt
. Отказ от этого из Google Search Console не поможет в этом отношении.По крайней мере, если вы добавите его в Google Search Console, вы сможете отслеживать такие вещи, как обратные ссылки, проверять robots.txt и т. Д. Если вы действительно делаете это открытым.
источник
Единственный правильный ответ - защитить все паролем. HTTP BASIC_AUTH, вероятно, проще всего настроить, поскольку он никак не будет взаимодействовать с WordPress. Этого само по себе будет достаточно, чтобы сдержать все скребки, но если вы хотите должной безопасности, вам также следует использовать HTTPS.
(Примечание. Во многих системах страница HTTP будет перенаправлена на HTTPS. Однако с HTTP BASIC_AUTH это перенаправление может быть после запроса вашего пароля. Страница HTTPS снова запросит пароль. Это означает, что ваш пароль был введен дважды, один раз в открытом тексте и один раз по защищенному каналу. В принципе возможно иметь разные пароли для версий HTTP и HTTPS или не иметь пароля для версии HTTP: все, что он делает, это перенаправляет на версию HTTPS, которая затем запрашивает ваш пароль. Насколько это легко настроить, зависит от того, какие инструменты вы используете для управления настройками хостинга вашего веб-сайта. Или просто убедитесь, что вы всегда перемещаетесь напрямуюна страницу HTTPS, минуя небезопасную версию. Если вы используете систему паролей, отличную от HTTP BASIC_AUTH, то, вероятно, ни один из этих sidenote не будет применяться.)
источник
Options -Indexes
).Во-первых, я приношу большие извинения всем профессиональным веб-мастерам, но для этого OP у меня есть одно золотое предложение:
Нарушать правила поиска
И я имею в виду сделать это до такой степени, что важный контент находится в сложном javascript, и роботы контента могут сканировать не в надлежащем HTML. Это включает в себя тег плохого описания, тег плохого заголовка и т. Д. Черт возьми, может превратить весь контент в просто видео, сделанное во флэш-памяти, или показать весь контент как одно изображение. Это действительно заставило бы гусеничный поисковик съежиться.
Я покажу на примере в коде:
Вот способ получить что-то проиндексированное:
Хорошо, я признаю, текст не идеален, но вы понимаете, что я имею в виду.
Теперь, если вы хотите скрыть это от сканеров и сделать это простым способом, вы можете попробовать это:
затем создайте изображение с именем mywebsite.jpg и включите в него весь текст, а не в HTML, показанный выше. Затем вам нужно защитить mywebsite.jpg, сделав его версию с водяным знаком для пользователей, которые не имеют права видеть реальную вещь. Просто сравните строки агента пользователя или IP-адреса с теми, которые вы разрешаете / запрещаете для изображения. Этот тип вещей может быть сделан в .htaccess с некоторыми правилами переписывания.
Например, чтобы заставить googlebot видеть изображение с водяным знаком вместо реальной, используйте эти правила:
Здесь я предполагаю, что mywebsite.jpg - это ваш реальный веб-сайт в виде изображения, а specialrobotimage.jpg - это водяной знак или изображение в виде сообщения о том, что только реальным пользователям разрешено просматривать информацию. Также правила предполагают, что все находится в одной папке.
источник
Во-первых, это действительно вопрос WP. Я написал более 20 сайтов, которые делают то, что вам нужно, так что это довольно легко.
1 Вы заставляете всех войти для просмотра каждой страницы.
2 Вы блокируете папку загрузки с помощью скрипта и .htaccess. Существуют сценарии, которые проверяют вход пользователя в систему, прежде чем разрешить ему просматривать мультимедиа.
Если вы хотите сделать что-то среднее между этим и иметь ваш сайт широко открытым - это большая работа. Самый простой способ сделать это - иметь две папки для загрузки - одну с защитой и одну для всего остального, если вы хотите, чтобы некоторые страницы были широко открыты для публики, а некоторые - нет.
Что касается того, что другие говорят о контенте - не могу найти его, если ваши страницы заблокированы ... это не совсем так. У меня есть скрипты роботов, которые будут искать в папке имена файлов.
Все разговоры между Google и роботами - это чепуха. Этот материал имеет значение, только если вы хотите наплевать на это. Если вы это сделаете, то воспользуйтесь советом по некоторым из вышеизложенных вопросов.
источник