Я новичок в этом, а также новый 19-летний разработчик PHP, которого только что наняли, поэтому я не уверен, как это работает. Многие компании при разработке своих сайтов скрывают свои сайты от индексации. Какими способами html5 / css и затем php / mysql работают скрыто от поисковых систем? Если я не ошибаюсь, это методы:
Автономная разработка: использование локального хранилища для рендеринга html / css; не уверен, как PHP / mysql будет работать с этим.
Использование .htaccess для предотвращения доступа
Использование VPN для предотвращения доступа.
Ответы:
Лучше всего иметь приблизительный производственный стек на локальном компьютере разработчика. Обычно это включает базу данных, веб-сервер и ваш настроенный код. Делайте все ваши разработки там. Никогда не редактируйте код на производственном сервере.
Когда заинтересованные стороны вашего бизнеса будут готовы к запуску функциональности, отправьте свой код с локального компьютера на рабочий сервер. Вы можете использовать тестовый сервер, чтобы внутренние заинтересованные лица могли предварительно просмотреть ваши изменения, прежде чем начать работу.
Вы должны быть уверены, что используете систему контроля версий для управления вашим кодом. Git и Mercurial - хорошие варианты.
источник
Просто попросить поисковых пауков не индексировать ваш сайт - очень слабая защита, если таковая имеется.
Обычный способ сделать это заключается в следующем:
Что касается , как вы бы установить эти вещи: Если вы бежите приличное * распределение Никса, он поставляется с менеджером пакетов (
apt
,port-install
,rpm
и т.д.); используйте его для установки необходимых компонентов и прочитайте документацию. Обратитесь за помощью к системному администратору, если вы не можете понять это самостоятельно.источник
Для вежливых сканеров (т. Е. Любой крупной поисковой системы) вы можете предложить
/robots.txt
файл с:Конечно, это только рекомендации, и они не будут запрещать людям посещать сайт, если они знают URL. Лучшим подходом является поместить сайт за каким-либо логином, если вам нужен доступ из Интернета в целом, или просто разместить сервер на внутреннем веб-сервере.
источник
В духе «войти с большим количеством знаний»:
Html / Css можно скрыть
robots.txt
, но обязательно поменяйте эти файлы при запуске сайта в производство.robots.txt
не мешает случайному человеку угадать сайт разработки (если он виден всему миру)..htaccess
может быть использован для добавления комбинированного имени пользователя и пароля на любой разрабатываемый сайт.Вот пример того, как вы могли бы использовать VPN:
Все запросы по VPN проходят через брандмауэр. Этот брандмауэр (работает под управлением некоторого программного обеспечения, такого как pfSense ) проверяет запросы веб-сайтов и выполняет некоторое перенаправление на основе URL. Например, URL http: //example.com.staging будет указывать на версию example.com на вашем промежуточном сервере, а URL-адрес http: //example.com.development будет указывать на версию example.com. на вашем сервере разработки.
Поскольку все это в частной VPN, ни один из этих сайтов не доступен из внешнего мира.
Кроме того, чтобы уточнить некоторые вещи с вашим оригинальным вопросом. Работа над php / mysql выполняется на стороне сервера , поэтому веб-сканеры, браузеры и т. Д. Никогда не видят код - они видят только вывод кода (то есть, если вы правильно настроили свой сервер и не выполняете рендеринг). .php файлы как текст).
Я уверен, что неправильно понял ваш вопрос, но я нашел, что вы используете фразу «локальное хранилище» неоднозначно. LocalStorage также может ссылаться на технологию HTML5 для локального хранения ресурсов на компьютере клиента. Он не используется для рендеринга html / css, это всего лишь хранилище данных (браузер отображает html / css). Локальное хранилище обычно не имеет ничего общего с тем, как компании скрывают сайты в процессе разработки.
Файлы PHP можно просматривать локально, если на вашем компьютере запущен веб-сервер, а файлы находятся в соответствующих каталогах (обычно это
htdocs
каталог, если работает Apache).источник
Поисковые системы работают с помощью пауков : скриптов, которые сканируют сеть от одной ссылки к другой. Если ваш сайт новый и никаких ссылок на него не существует из других источников, вас ничто не найдет. Этого, плюс файл robots.txt, настроенный так, чтобы любой паук, который каким-то образом бродит по вашему сайту, не просматривал его, должно быть достаточно.
источник