Есть ли причина оставить основной раздел / диск Windows C: маленьким?

70

В моей работе почти два десятилетия назад ИТ-специалисты сохраняли размер основного раздела Windows (диска C) чрезвычайно маленьким по сравнению с другими разделами. Они утверждали бы, что компьютер работает на оптимальной скорости без замедления.

Но недостатком этого является то, что диск C: легко заполняется, если его хранить в небольшом объеме, и вскоре вы не сможете установить новое программное обеспечение, поскольку в нем не хватает места. Даже если я устанавливаю программное обеспечение на диск D :, его часть всегда копируется в C:, что заполняет его.

Мой вопрос, эта практика все еще хороша? Почему это сделано. Каковы его основные преимущества, если таковые имеются? Одним из очевидных является то, что в случае сбоя основного раздела ваши данные в безопасности находятся на втором.

Причина, по которой я задаю этот вопрос, заключается в том, что я пытаюсь обновить Visual Studio, но не могу, потому что у меня осталось только 24 МБ в основном разделе.

hk_
источник
2
Что вы подразумеваете под «размером основного раздела маленький (например, 100 ГБ)»? 100Гб не "маленький" по большинству мер? Вы имеете в виду «меньше, чем весь диск»? И под «основным разделом» вы подразумеваете раздел, в котором находится файловая система для диска Windows C :? И какой снимок экрана, который вы разместили, должен объяснить? Это просто показывает полный привод ... Пожалуйста, отредактируйте, чтобы уточнить.
слеске
10
100 ГБ могут показаться не маленькими, но в наши дни большие программы заполняют это довольно быстро, как в моем случае. Основной раздел = Основной раздел = Загрузочный раздел. Снимок экрана показывает моего основного участника (диск c :) и вижу, что осталось только 24 МБ. Мой D: 90 ГБ бесплатно и E: 183 ГБ бесплатно.
hk_
1
Я позволил себе уточнить ваш вопрос, чтобы уточнить. В будущем лучше, если вы напрямую отредактируете свой вопрос для добавления информации - комментарии могут быть удалены, и не все будут читать их все.
слеске
28
Я бы сказал, что эти «эксперты» были не правы тогда и сейчас. Я уверен, что бывают случаи, когда маленький диск C: может быть / был полезен, но для большинства обычных пользователей (включая разработчиков) лучше всего по умолчанию иметь один максимально большой раздел C: делать именно из-за вашей проблемы.
Нил
1
Помните, что вы не всегда можете сменить диск, на который установлена ​​программа (например, MS Office), и вам может потребоваться больше места, чем планировалось изначально.
Nijin22

Ответы:

89

В моей работе почти два десятилетия назад ИТ-специалисты сохраняли размер основного раздела Windows (диска C) чрезвычайно маленьким по сравнению с другими разделами. Они утверждали бы, что компьютер работает на оптимальной скорости без замедления. [...] Мой вопрос, эта практика все еще хороша?

В общем, нет .

В более старых версиях Windows были проблемы с производительностью на больших дисках (точнее: с большими файловыми системами), главным образом из-за того, что файловая система FAT, используемая Windows, плохо поддерживала большие файловые системы. Однако во всех современных установках Windows вместо этого используется NTFS, что решает эти проблемы. См. Например, значительно ли снижается производительность NTFS в томах, превышающих пять или шесть ТБ? Это объясняет, что даже разделы размером в терабайты обычно не являются проблемой.

В настоящее время, как правило, нет причин не использовать один большой раздел C :. По умолчанию собственный установщик Microsoft создает один большой диск C :. Если бы были веские причины для создания отдельного раздела данных, установщик предложил бы его - почему Microsoft должна позволять вам устанавливать Windows таким образом, который создает проблемы?

Основная причина против нескольких дисков состоит в том, что это увеличивает сложность - что всегда плохо в ИТ. Это создает новые проблемы, такие как:

  • вам нужно решить, какие файлы поместить на какой диск (и соответствующим образом изменить настройки, щелкнув по элементам в установщиках и т. д.)
  • Некоторое (плохо написанное) программное обеспечение может не захотеть, чтобы его не помещали на диск, отличный от C:
  • в одном разделе может оказаться слишком мало свободного места, в то время как в другом все еще есть свободное место, которое может быть трудно исправить

Есть несколько особых случаев, когда несколько разделов имеют смысл:

  • Если вы хотите выполнить двойную загрузку, вам (обычно) нужны отдельные разделы для каждой установки ОС (но все же только один раздел на установку).
  • Если у вас более одного накопителя (в частности, накопителей с разными характеристиками, таких как SSD и HD), вы можете выбрать и выбрать, куда и куда идти - в этом случае может иметь смысл, например, поставить диск C: на SSD и D : на HD.

Чтобы рассмотреть некоторые аргументы, часто выдвигаемые в пользу небольших / отдельных разделов:

  • небольшие разделы проще для резервного копирования

В любом случае, вам действительно нужно создать резервную копию всех ваших данных, чтобы разделение их на разделы не помогло. Кроме того, если вам действительно нужно это сделать, все программы резервного копирования, которые я знаю, позволяют выборочно создавать резервные копии части раздела.

  • если один раздел поврежден, другой раздел все еще может быть в порядке

Хотя это теоретически верно, нет никакой гарантии, что повреждение приятно ограничит себя одним разделом (и еще труднее проверить это, чтобы убедиться в этом в случае проблем), так что это дает только ограниченную гарантию. Кроме того, если у вас есть хорошие резервные копии, дополнительная безопасность обычно слишком мала, чтобы стоить беспокойства. И если у вас нет резервных копий, у вас гораздо большие проблемы ...

  • если вы поместите все пользовательские данные в раздел данных, вы можете стереть и переустановить / не создавать резервную копию раздела ОС, потому что там нет пользовательских данных

Хотя это может быть теоретически верно, на практике многие программы будут записывать настройки и другие важные данные на диск C: (потому что они, к сожалению, жестко запрограммированы для этого, или потому что вы случайно забыли изменить их настройки). Поэтому ИМХО очень рискованно полагаться на это. Кроме того, в любом случае вам нужны хорошие резервные копии (см. Выше), поэтому после переустановки вы можете восстановить резервные копии, что даст вам тот же результат (просто более безопасно). Современные версии Windows уже хранят пользовательские данные в отдельном каталоге (каталог профиля пользователя), поэтому выборочное восстановление возможно.


См. Также Будете ли вы устанавливать программное обеспечение в том же разделе, что и система Windows? для дополнительной информации.

sleske
источник
3
Несколько разделов также имеет смысл, если вы хотите переместить пользовательские данные из C: \, отсоединив их от (m) любых проблем с ОС. После этого вы можете сказать, установите другую ОС на свое место, и ваши пользовательские данные останутся в безопасности (до тех пор, пока пользовательский раздел не будет удален)
Baldrickk
1
Возможно, вы захотите выполнить резервное копирование образа для вашего системного раздела, тогда как достаточно простого резервного копирования данных для всех других разделов.
Томас
26
Остальная часть вашего ответа хороша, но «установщик позволяет вам сделать это» не является правильным способом проверить, является ли что-то хорошим или нет. Зачем им это делать? Забывчивость, глупость, лень, невежество, технические ограничения, менеджмент среднего звена ... Есть миллион причин, по которым установщик может сделать не то, что по умолчанию, не говоря уже о том, чтобы позволить вам поступить неправильно. Это вдвойне относится к такой сложной системе, как Windows.
Ник Хартли
2
Я помню WinXP и Win 7, позволяющие пользователю создавать несколько разделов и устанавливать размер разделов во время установки. Я не помню, так ли это больше, правда. MS известен тем, что принимает плохие решения, казалось бы, по прихоти, и поддерживает их годами, прежде чем принять другое плохое решение, чтобы «исправить» (не) проблему. Кроме того, технические / арт-пользователи, которым нужно локально манипулировать большими файлами, часто нуждаются в большем количестве дисков для выполнения этой работы. И: «увеличивает сложность - что всегда плохо в ИТ», в общем, наполовину верно. Мои рассуждения не по теме, поэтому я оставлю это так.
Computercarguy
2
«Почему Microsoft должна позволять вам устанавливать Windows таким образом, чтобы это создавало проблемы?» Поскольку вы предполагаете, что Microsoft всегда позволяет вам по умолчанию использовать лучший и оптимизированный вариант?
Джонатан Драпо,
25

Историческая причина такой практики, скорее всего, коренится в рабочих характеристиках вращающихся магнитных жестких дисков. Область на вращающихся дисках с самой высокой последовательной скоростью доступа является наиболее удаленными секторами (около начала привода).

Если вы используете весь диск для своей операционной системы, рано или поздно (с помощью обновлений и т. Д.) Ваши файлы ОС будут распределены по всей поверхности диска. Таким образом, чтобы убедиться, что файлы ОС физически находятся в самой быстрой области диска, вы должны создать небольшой системный раздел в начале диска и распределить оставшуюся часть диска в столько разделов данных, сколько вам нужно.

Задержка поиска также частично зависит от того, насколько далеко должны продвинуться головки, поэтому хранение небольших файлов рядом друг с другом также имеет преимущество на ротационных дисках.

Эта практика утратила все свои причины с появлением хранения SSD.

WooShell
источник
1
Помимо потери тяги из-за SSD, новые диски SATA и SASS вращаются намного быстрее (7200 и + 10k об / мин против 5400 об / мин) и имеют более быстрое время поиска, чем старые диски. Хотя в «проблеме скорости» все еще есть минимальная доля правды, не многие люди, использующие современное оборудование, на самом деле заметили бы увеличение скорости при использовании небольшого раздела без тестирования программного обеспечения.
Computercarguy
6
«Самая высокая скорость доступа - самые внутренние сектора». , «Так, чтобы убедиться , что файлы ОС физически находиться в самой быстрой области диска, вы можете создать небольшой системный раздел в начале диска» - Нет, вы его назад, так же , как этот вопрос: superuser.com / questions / 643013 /… . Также ваше утверждение об «историческом разуме» сомнительно. До тех пор, пока ATAPI-накопители не начали использовать зональную запись битов, все предыдущие жесткие диски использовали постоянную угловую запись, поэтому не было никакой разницы в скорости между цилиндрами.
опилки
3
@ Sawdust, историческая причина была не задержка чтения, а поиск задержки. FAT хранился по самому низкому адресу дорожки, поэтому головка диска должна возвращаться туда, по крайней мере, каждый раз, когда файл был создан или расширен. С дисками 1980-х годов разница в производительности была ощутимой. Одной из особенностей конструкции HPFS (предка NTFS) было размещение MFT в середине раздела, чтобы сократить среднее время поиска. Конечно, после размещения нескольких разделов на диске вы получаете несколько зон FAT / MFT, поэтому поиск больше не оптимизируется.
grahamj42
@ grahamj42 - Нет, ты все еще не прав. Время поиска является чисто (нелинейной) функцией расстояния поиска, которое измеряется числом цилиндров. Время поиска совершенно не связано с внутренним и внешним цилиндрами, как вы утверждаете. Не уверен, что вы подразумеваете под «задержкой чтения» . К вашему сведению, я имею непосредственный опыт работы с внутренними устройствами дисковода, контроллерами дисков и прошивкой дисковода, то есть эти знания не были изучены из простого чтения. И я был профессионально активен до и после создания этой «истории», на которую вы ссылаетесь.
опилки
1
@sawdust - извините, что вы меня не поняли, а размер комментария ограничил то, что я мог написать. В разделе FAT головка должна перемещаться в FAT каждый раз, когда она обновляется, или если сектор FAT, который нужно прочитать, больше не кэшируется, поэтому вероятность обнаружения головки во внешнем цилиндре намного выше, чем в внутренней. цилиндр, что означает, что среднее время поиска меньше. Я говорю о шаговых двигателях начала 80-х (ST-412 имел среднее время поиска 85 мс, но 3 мс для одного цилиндра). Современный привод примерно в 10 раз быстрее.
grahamj42
5

Есть ли причина оставить основной раздел / диск Windows C: маленьким?

Вот несколько причин для этого:

  1. Все системные файлы и сама ОС находятся в основном разделе. Лучше сохранять эти файлы отделенными от другого программного обеспечения, личных данных и файлов, просто потому, что постоянное вмешательство в загрузочный раздел и смешивание там ваших файлов может иногда приводить к ошибкам, таким как случайное удаление системных файлов или папок. Организация важна. Вот почему размер основного раздела невелик - чтобы пользователи не могли выгружать туда все свои данные.
  2. Резервное копирование - гораздо проще, быстрее и эффективнее создавать резервные копии и восстанавливать меньший раздел, чем больший, в зависимости от назначения системы. Как отмечает @computercarguy в комментариях, лучше создавать резервные копии определенных папок и файлов, чем создавать резервные копии целого раздела, если в этом нет необходимости.
  3. Однако это может улучшить производительность едва заметным образом. В файловых системах NTFS есть так называемые таблицы основных файлов в каждом разделе, и он содержит метаданные обо всех файлах в разделе:

    Описывает все файлы тома, включая имена файлов, временные метки, имена потоков и списки номеров кластеров, в которых находятся потоки данных, индексы, идентификаторы безопасности и такие атрибуты файлов, как «только для чтения», «сжатый», «зашифрованный» и т. Д.

Это может принести преимущество, хотя и незаметно, поэтому его можно игнорировать, так как это действительно не имеет значения. @ WooShell в ответ больше относится к вопросу производительности, несмотря на то, что до сих пор является пренебрежимо.

Еще одна вещь , которую стоит отметить , это то, что в случае наличия SSD + HDD, лучше хранить вашу ОС на SSD и все ваши личные файлы / данные на жестком диске. Скорее всего, вам не понадобится повышение производительности благодаря наличию SSD для большинства ваших личных файлов, а на твердотельных накопителях потребительского уровня обычно не хватает места, поэтому вам не следует пытаться заполнить его личными файлами. ,

Может кто-нибудь объяснить, почему эта практика выполняется и все еще действует?

Описаны некоторые причины, по которым это делается. И да, это все еще в силе, хотя уже не так хорошо, как кажется. Наиболее заметными недостатками является то, что конечные пользователи должны будут отслеживать, где приложения предлагают установить свои файлы, и изменять это местоположение (возможно, практически при любой установке программного обеспечения, особенно если установлена ​​опция экспертная / расширенная установка), поэтому загрузочный раздел не ' не нужно заполнять, так как операционная система иногда нуждается в обновлении, и другой недостаток заключается в том, что при копировании файлов из одного раздела в другой фактически необходимо копировать их, а если они находятся в одном разделе, то просто обновляет MFT и метаданные, не нужно снова записывать файлы целиком.

Некоторые из них, к сожалению, могут создать больше проблем:

  1. Это увеличивает сложность структуры, что делает ее более трудной и более трудоемкой в ​​управлении.
  2. Некоторые приложения по-прежнему записывают файлы / метаданные в системный раздел (ассоциации файлов, контекстные меню и т. Д.), Даже если они установлены в другом разделе, что затрудняет резервное копирование и может привести к сбоям при синхронизации между разделами. (благодаря комментарию @ Боба)

Чтобы избежать возникшей проблемы, вам необходимо:

  1. Всегда старайтесь устанавливать приложения на другие разделы (измените место установки по умолчанию).
  2. Убедитесь, что в вашем загрузочном разделе установлено только важное программное обеспечение. Другое не столь необходимое и неважное программное обеспечение должно храниться вне его.

Я также не говорю, что иметь несколько разделов с небольшим основным - это лучшая идея. Все зависит от цели системы, и, хотя она предоставляет лучший способ организации ваших файлов, она имеет свои недостатки, которые в современных системах Windows - больше, чем плюсы.

Примечание. И, как вы упомянули сами, данные в отдельных разделах остаются в безопасности в случае сбоя загрузочного раздела.

Fanatique
источник
1
«Поэтому меньший раздел с меньшей таблицей мастер-файлов будет выполнять более быстрый поиск и улучшит производительность жесткого диска». Требуется цитирование - например, serverfault.com/questions/222110/… указывает, что даже огромные объемы в настоящее время не являются проблемой.
слеске
1
«Конечно, многие разработчики программного обеспечения имеют плохую практику предлагать конечным пользователям устанавливать свои приложения в основном разделе. Но, как правило, это не очень хорошая идея». - цитата нужна
gronostaj
5
«Поскольку основные таблицы файлов хранят информацию обо всех файлах в разделе, при выполнении каких-либо действий с любым из файлов в этом разделе он просматривает всю таблицу». О, это абсолютно не так. Такое утверждение может быть сделано только при почти полном незнании того, как работают файловые системы и как организована организация дискового хранилища в целом. Если бы это было правдой, то производительность любой операции, связанной с MFT, линейно (или хуже!) Уменьшалась бы с размером MFT, а этого категорически не происходит.
Джейми Ханрахан
1
msgstr "поскольку ОС не выполняет столько операций чтения / записи, сколько другое программное обеспечение" . Если ваша операционная система Windows, она выполняет много операций R / W на установочном диске. Их много . Если вы используете IE или Edge, он устанавливается как часть Windows (не думаю, что вы можете указать, где он установлен, хотя я могу ошибаться), и это кеширует массу вещей, когда я пишу этот комментарий.
FreeMan
2
«Лучше держать эти файлы [OS] отделенными от другого программного обеспечения» - Нет. Проблема с этим подходом заключается в том, что многие программы поддерживают состояние установки (и удаления) с ОС. Много программного обеспечения также регистрируется в различных частях ОС - ассоциации файлов, записи контекстного меню, средства предварительного просмотра и т. Д. Установка самого программного обеспечения в отдельном разделе не предотвращает это; это просто заставляет их распространяться на два раздела. Что, во всяком случае, хуже, чем хранить их вместе - теперь вы добавили риск того, что два раздела не синхронизируются в резервных копиях.
Боб
4

Я разработчик программного обеспечения, но также провел время, выполняя "обычную" / бэк-офисную работу в области ИТ Обычно я храню ОС и приложения на диске C: и свои личные файлы на диске D :. Это не обязательно должны быть отдельные физические диски, но в настоящее время я использую относительно маленький SSD в качестве моего "системного" диска (C :) и "традиционный" дисковод (то есть с вращающимися магнитными пластинами) в качестве моего "дома" диск (D :).

Все файловые системы подвержены фрагментации. С SSD это в основном не проблема, но это все еще проблема с традиционными дисками.

Я обнаружил, что фрагментация может значительно снизить производительность системы. Например, я обнаружил, что полная сборка большого программного проекта улучшилась более чем на 50% после дефрагментации моего диска - и рассматриваемая сборка заняла большую часть часа, так что это не было тривиальной разницей.

Храня мои личные файлы на отдельном томе, я обнаружил:

  • системный том не фрагментируется почти так же быстро (или сильно);
  • гораздо быстрее дефрагментировать два отдельных тома, чем один том со всем на нем - каждый том занимает 20-25%, пока объединенный том будет.

Я наблюдал это на нескольких поколениях компьютеров с несколькими версиями Windows.

(Как отметил комментатор, это также способствует созданию резервных копий.)

Следует отметить, что используемые мной средства разработки, как правило, генерируют большое количество временных файлов, которые, по-видимому, вносят существенный вклад в проблему фрагментации. Таким образом, серьезность этой проблемы зависит от используемого вами программного обеспечения; Вы можете не заметить разницу или столько же. (Но есть и другие действия - например, создание и редактирование видео / аудио - которые требуют интенсивного ввода-вывода и в зависимости от используемого программного обеспечения могут генерировать большое количество временных / промежуточных файлов. Моя точка зрения - не писать это как то, что влияет только на один класс пользователей.)

Предостережение: с более новыми версиями Windows (начиная с 8) это стало намного сложнее, потому что пользовательские папки на томе, отличном от C: больше официально не поддерживаются. Я могу вам сказать, что я не смог выполнить обновление с Windows 7 до Windows 10 на месте, но YMMV (есть несколько различных способов [пере] найти папку пользователя, я не знаю, на что это влияет) ,

Еще одно примечание: если вы поддерживаете два отдельных тома на традиционном диске, вы можете настроить файл подкачки на томе D :. По причинам, описанным в ответе WooShell, это сократит время поиска при записи в файл подкачки.

Дэвид
источник
Для меня это просто, что C: может быть переустановлен, где все на D: должно быть
зарезервировано
При использовании твердотельных накопителей фрагментация метаданных по-прежнему остается проблемой, поскольку это означает, что для одной и той же работы требуется больше команд чтения / записи. Хотя воздействие все равно несравнимо меньше, чем для вращательных приводов.
ivan_pozdeev
4

Краткий ответ: больше нет.

По моему опыту (более 20 лет работы в области ИТ-администрирования), основная причина этой практики (другие перечислены ниже) заключается в том, что пользователи в основном не доверяли Windows свои данные и пространство на жестком диске.

В течение долгого времени Windows, как известно, плохо себя чувствовала, оставаясь стабильной с течением времени, проводя очистку после себя, поддерживая работоспособность системного раздела и обеспечивая удобный доступ к пользовательским данным на нем. Поэтому пользователи предпочитали отвергать иерархию файловой системы, предоставляемую Windows, и выходить за ее пределы. Системный раздел также действовал как гетто, чтобы лишить Windows средств для разрушения за ее пределами.

  • Есть много продуктов, в том числе от Microsoft, которые не удаляются чисто и / или вызывают проблемы совместимости и стабильности (наиболее заметное проявление - это остатки файлов и записей реестра вокруг и DLL Hellво всех его воплощениях). Многие файлы, созданные ОС, впоследствии не очищаются (журналы, обновления Windows и т. Д.), Что приводит к тому, что ОС с течением времени занимает все больше и больше места. В эпоху Windows 95 и даже XP совет шел так далеко, что время от времени предлагал чистую переустановку ОС. Переустановка ОС требовала возможности гарантировать очистку ОС и ее раздела (а также очистить любые поддельные данные в файловой системе) - невозможно без нескольких разделов. А разделение диска без потери данных возможно только с помощью специализированных программ (которые могут иметь свои собственные неприятные сюрпризы, такие как спасение и сохранение данных в непригодном для использования состоянии при обнаружении сбойного сектора). Различные программы «очистки» разрешили проблему, но их логика основана на обратном проектировании и наблюдаемом поведении,RegCleanУтилита MS сама по себе была отменена после выпуска Office 2007, что нарушило предположения о реестре, на котором она была основана). Тот факт, что многие программы сохранили свои данные в произвольных местах, еще более усложняет разделение данных пользователя и ОС, что заставляет пользователей устанавливать программы и вне иерархии ОС.
    • Microsoft попыталась различными способами повысить стабильность с разной степенью успеха ( общие библиотеки DLL , защита файлов Windows и ее преемник TrustedInstaller, параллельная подсистема , отдельный репозиторий для модулей .NET со структурой хранения, предотвращающей конфликты версий и поставщиков). ). В последних версиях установщика Windows даже есть элементарная проверка зависимостей (вероятно, последний из основных менеджеров пакетов, который обычно использует эту функцию).
    • Что касается соответствия стороннего программного обеспечения передовым методам, они маневрировали между поддержанием совместимости с небрежно написанным, но достаточно используемым программным обеспечением (в противном случае его пользователи не обновились бы до новой версии Windows), что привело к ошеломляющему количеству ошибки и обходные пути в ОС, включая недокументированное поведение API, исправление сторонних программ для исправления ошибок в них и несколько уровней виртуализации реестра и файловой системы - и между принуждением сторонних поставщиков к соблюдению мер, таких как логотип сертификации программа и программа для подписи драйверов (обязательная, начиная с Vista).
  • Пользовательские данные, скрываемые по длинному пути под профилем пользователя, затрудняют поиск и указание путей к ним. В путях также использовались длинные имена , были пробелы (повсюду - командные оболочки) и национальные символы (главная проблема для языков программирования, за исключением очень недавних, которые имеют всестороннюю поддержку Unicode) и были специфичны для конкретной локали (!) И недоступны без доступа к winapi. (!!) (уничтожение любых попыток интернационализации в сценариях), что тоже не помогло.
    Таким образом, хранение ваших данных в корневом каталоге отдельного диска считалось более удобной структурой данных, чем в Windows.
    • Это было исправлено только в самых последних выпусках Windows. Сами пути были исправлены в Vista, сжимая длинные имена, исключая пробелы и локализованные имена. Проблема с просмотром была исправлена ​​в Win7, которая обеспечивала записи в меню «Пуск» как для корня профиля пользователя, так и для большинства других каталогов в нем, а также такие вещи, как постоянные «Избранные» папки в диалогах выбора файлов, с разумными настройками по умолчанию, например Downloads, чтобы избавить от необходимости просматривать для них каждый раз.
  • В общем, усилия MS в итоге принесли свои плоды. После Win7 операционная система, стандартное программное обеспечение и программное обеспечение сторонних производителей, включая утилиты очистки, стабильны и работают достаточно хорошо, а жесткие диски достаточно большие, чтобы ОС не требовала переустановки в течение всего срока службы типичной рабочей станции. А фондовая иерархия является удобной и доступной для того, чтобы фактически принимать и использовать ее в повседневной практике.

Вторичные причины:

  • Раннее программное обеспечение (поддержка файловых систем и разделов в BIOS и ОС) отставало от жестких дисков в поддержке больших объемов данных, что требовало разделения жесткого диска на части, чтобы иметь возможность использовать его полную емкость.
    • Это было в первую очередь проблема в DOS и Windows 95 раз. С появлением FAT32 (Windows 98) и NTFS (Windows NT 3.1) эта проблема была в значительной степени решена на данный момент.
    • Недавно возникший барьер в 2 ТБ был исправлен файловыми системами последнего поколения ( ext4 и последними версиями NTFS ), GPT и дисками 4k .
  • Различные попытки оптимизировать производительность. Вращающиеся жесткие диски немного (примерно в 1,5 раза) быстрее считывают данные с внешних дорожек (которые отображаются на начальные сектора), чем с внутренних, предлагая размещать часто используемые файлы, такие как библиотеки ОС и файл подкачки, рядом с началом диска.
    • Поскольку к пользовательским данным также осуществляется очень частый доступ, и изменение положения головы оказывает еще большее влияние на производительность, помимо очень специфических рабочих нагрузок, улучшение в реальном использовании в лучшем случае незначительно.
  • Несколько физических дисков. Это нестандартная установка для рабочей станции, поскольку современный жесткий диск зачастую достаточно большой, а на ноутбуках даже нет места для второго жесткого диска. Большинство, если не все станции, которые я видел с этой настройкой, являются настольными компьютерами, которые (повторно) используют старые жесткие диски, которые все еще работают и дополняют до необходимого размера - в противном случае, либо следует использовать RAID, либо один из дисков должен содержать резервных копий и не быть в регулярном использовании.
    • Вероятно, это единственный случай, когда можно получить реальную выгоду от разделения системы и данных на отдельные тома: поскольку они физически работают на другом оборудовании, к ним можно получить доступ параллельно (если только два диска PATA не подключены к одному кабелю) и производительности нет попадание в положение головы при переключении между ними.
      • Чтобы повторно использовать структуру каталогов для Windows, я typicaly перейти C:\Usersна диск данных. Перемещение только одного профиля или даже просто Documents, Downloadsи Desktopоказалось, что оно уступает другим частям профиля и Publicтакже может бесконтрольно расти (см. Настройку «отдельная конфигурация и данные» ниже).
    • Хотя диски могут быть объединены в составной том , я не использую и не рекомендую это, поскольку динамические тома - это запатентованная технология, с которой у сторонних инструментов возникают проблемы при работе, а также из-за сбоя любого из дисков весь том теряется.
  • M.2 SSD + HDD.
    • В этом случае я скорее рекомендую использовать SSD исключительно в качестве кеша: таким образом, вы получаете преимущество SSD для всего массива данных, а не для какой-то произвольной его части, а то, что ускоряется, определяется автоматически тем, что вы на самом деле доступ на практике.
    • В любом случае, эта конфигурация в ноутбуке уступает только одному SSD, потому что жесткие диски также не переносят внешних ударов и вибрации, что является очень реальным явлением для ноутбуков.
  • Сценарии двойной загрузки. Как правило, две ОС не могут сосуществовать в одном разделе. Это единственный известный мне сценарий, при котором на рабочей станции требуется несколько разделов. И случаи использования для этого в любом случае крайне редки в наше время, потому что каждая рабочая станция теперь достаточно мощна для запуска виртуальных машин.
  • На серверах существует ряд других допустимых сценариев, но ни один из них не применим к домену суперпользователя.
    • Например, можно отделить постоянные данные (программы и конфигурацию) от изменяющихся данных (данные приложения и журналы), чтобы предотвратить сбой работающего приложения всей системой. Существуют также различные особые потребности (например, во встроенной системе постоянные данные часто хранятся в EEPROM, а рабочие данные - на диске RAM). Стандарт иерархии файловой системы Linux прекрасно подходит для таких настроек.
ivan_pozdeev
источник
3

Почти 2 десятилетия назад доминировал бы диапазон Windows 98 - XP, включая NT4 и 2000 на стороне рабочей станции / сервера.

Все жесткие диски также могут быть подключены к кабелю PATA или SCSI, так как SSD стоят дороже компьютера, а SATA не существует.

Как говорится в ответе WooShell, нижние логические сектора на диске (вне диска), как правило, самые быстрые. Мои накопители Velociraptor с емкостью 1 ТБ начинаются со скорости 215 МБ / с, но снижаются до 125 МБ / с во внешних секторах, что составляет 40%. И это 2,5-дюймовый дисковод, поэтому большинство 3,5-дюймовых дисков, как правило, испытывают все большее падение производительности, более чем на 50% . Это основная причина, по которой основной раздел остается маленьким, но он применяется только в том случае, если размер раздела мал по сравнению с размером диска.

Другой основной причиной сохранения небольшого размера раздела было использование файловой системы FAT32, которая не поддерживает разделы размером более 32 ГБ. Если вы использовали NTFS, разделы до 2 ТБ поддерживались до Windows 2000, а затем до 256 ТБ.

Если ваш раздел слишком мал по сравнению с объемом записываемых данных, его легче фрагментировать и труднее дефрагментировать. Из вас может просто выбежать из космоса, как то, что случилось с вами. Если у вас слишком много файлов относительно размеров раздела и кластера, управление таблицей файлов может быть проблематичным, и это может повлиять на производительность. Если вы используете динамические тома для избыточности, сохранение избыточных томов по мере необходимости сэкономит место на других дисках.

Сегодня все иначе: в хранилище клиентов преобладают флеш-накопители или флеш-ускоренные магнитные диски. Как правило, хранилища достаточно, и на рабочую станцию ​​можно добавить больше, тогда как в дни PATA у вас могло быть только одно неиспользуемое подключение диска для дополнительных устройств хранения.

Так что это все еще хорошая идея, или она имеет какую-то выгоду? Это зависит от данных, которые вы храните, и от того, как вы ими управляете. Моя рабочая станция C: всего 80 ГБ, но сам компьютер имеет более 12 ТБ дискового пространства, распределенного по нескольким дискам. Каждый раздел содержит только определенный тип данных, и размер кластера соответствует как типу данных, так и размеру раздела, что позволяет поддерживать фрагментацию около 0 и предотвращает необоснованно большое значение MFT.

Уменьшение состоит в том, что есть неиспользуемое пространство, но увеличение производительности более чем компенсирует, и если я хочу больше памяти, я добавляю больше дисков. C: содержит операционную систему и часто используемые приложения. P: содержит менее часто используемые приложения и представляет собой твердотельный накопитель емкостью 128 ГБ с более низким рейтингом надежности записи, чем C :. T: находится на меньшем SSD SLC и содержит временные файлы пользователя и операционной системы, включая кэш браузера. Видео- и аудиофайлы хранятся в магнитном хранилище, как и образы виртуальных машин, резервные копии и архивированные данные, обычно они имеют кластеры размером 16 КБ или более, а для чтения / записи преобладает последовательный доступ. Я запускаю дефрагментацию только один раз в год на разделах с большим объемом записи, и на всю систему уходит около 10 минут.

Мой ноутбук имеет только один 128 ГБ твердотельный накопитель и другой вариант использования, поэтому я не могу сделать то же самое, но я по-прежнему разделен на 3 раздела: C: (80 ГБ и программы), T: (временная 8 ГБ) и F: ( 24 ГБ пользовательских файлов), который хорошо справляется с управлением фрагментацией, не теряя места, и ноутбук будет заменен задолго до того, как у меня закончится свободное место. Это также значительно упрощает резервное копирование, так как F: содержит единственные важные данные, которые регулярно изменяются.

Ричи Фрейм
источник
Однако мой вопрос говорит, что наш ИТ-эксперт "все еще" делает это, поскольку я сталкиваюсь с той же самой проблемой прямо сейчас.
hk_
Обратите внимание, что начиная с Vista, Windows автоматически сохраняет часто используемые системные файлы во внешних секторах (если это возможно) в любом случае. Это одна из основных причин, по которой скорость запуска так сильно возросла - вся последовательность загрузки, включая запускаемые приложения, обычно последовательно считывается с диска в том месте, где он самый быстрый. Разумеется, если вы не испортили разделы: твердотельные накопители P по-прежнему очень полезны - даже для повышения пропускной способности.
Луаан
2
@hk_ только потому, что ваш ИТ-эксперт все еще делает вещи по привычке, не означает, что основополагающие истины для этой привычки 20 или 15 (или даже 5) лет назад все еще верны сегодня. Если вы были британцем и продолжали ехать по левой стороне дороги по привычке, когда переходили в континентальную Европу, вы оказались бы в мире боли. то есть «потому что я всегда так делал» не является веской причиной продолжать что-то делать.
FreeMan
@ FreeMan Я не поддерживаю это. У меня были сомнения, следовательно, мой вопрос.
hk_
3

Раньше я занимался какой-то ИТ-работой, и вот что я знаю и помню.

В прошлом, как говорили другие, было реальным преимуществом иметь небольшой раздел C в начале диска. Даже сегодня в некоторых ноутбуках более низкого уровня это все еще может быть правдой. По сути, имея меньший раздел, вы получаете меньше фрагментации и, сохраняя его в начале диска, вы лучше ищите и, следовательно, читаете время. Это все еще актуально сегодня с ноутбуками (обычно) и более медленными «зелеными» жесткими дисками.

Еще одно большое преимущество, которое я до сих пор использую, - это наличие «data» и «os» на отдельных дисках, или если я не могу управлять этими отдельными разделами. Реального увеличения скорости при использовании SSD или даже более быстрых магнитных накопителей не происходит, но существует огромная возможность «легко исправить», когда ОС в конечном итоге начинает работать. Просто поменяйте местами диск или переназначьте этот раздел. Данные пользователя не повреждены. При правильной настройке между переустановкой дисков D: и «перемещаемыми профилями» не возникает проблем в течение 5 минут. Это хороший шаг для техников 1-го уровня.

coteyr
источник
Я не уверен, что «хорошим шагом для Технологии Уровня 1» будет переустановка Windows, независимо от того, насколько она быстра. Я думаю, что переустановка операционной системы почти всегда должна быть последним средством. Так много странных мелочей может сломаться, если вы удалите установку ОС под всеми установленными приложениями и замените ее другой (хотя и очень похожей). Например, что происходит с записями реестра для конкретного приложения, которых нет в HKCU?
Аарон М. Эшбах
1
Они тоже стираются, а значит, вы также исключаете проблемы с конфигурацией.
Coteyr
2

Вот одна из причин, но я не верю, что это действительная причина для современных (современных) компьютеров.

Это восходит к Windows 95/98 и XT. Вероятно, это не относится к Vista и более поздним версиям, но это было аппаратное ограничение, поэтому запуск новой ОС на старом оборудовании все равно должен был бы справиться с этим ограничением.

Я считаю, что ограничение было 2 ГБ, но могло быть ограничение 1 ГБ (или, возможно, другие) в более раннее время.

Проблема была (что-то вроде) в следующем: раздел BOOT должен был находиться в пределах первых 2 ГБ (возможно, 1 ГБ ранее) физического пространства на диске. Возможно, что 1) ПУСК раздела BOOT должен был находиться в пределах предела, или 2) ВЕСЬ загрузочный раздел должен быть в пределах предела. Возможно, что в разное время применялся каждый из этих случаев, но если применялся № 2, он, вероятно, был недолгим, поэтому я предполагаю, что это № 1.

Итак, с # 1, СТАРТ раздела BOOT должен был находиться в пределах первых 2 ГБ физического пространства. Это не исключает создания 1 большого раздела для загрузки / ОС. Но проблема была двойной / мульти загрузки. Если казалось, что когда-либо можно было захотеть выполнить двойную / многократную загрузку диска, должно быть свободное место под отметкой 2 ГБ для создания других загрузочных разделов на диске. Поскольку во время установки может быть неизвестно, понадобится ли диску другой загрузочный раздел, скажем, Linix, или какой-нибудь загрузочный раздел отладки / устранения неполадок / восстановления, часто рекомендовалось (и часто не зная, почему) устанавливать на «небольшой» "Загрузочный раздел ОС.

Кевин Феган
источник
2

Мне интересно, беспокоился ли ваш десятилетний ИТ-отдел о резервном копировании. Поскольку C: является разделом загрузки / ОС, было бы типично использовать некоторый тип резервной копии образа, но для раздела данных / программы можно использовать инкрементную резервную копию файла + папки. Сокращение пространства, используемого в разделе C: уменьшит время и пространство, необходимое для резервного копирования системы.


Комментарий к моему личному использованию раздела C :. У меня есть мультизагрузочная система, включая Win 7 и Win 10, и у меня нет ОС на разделе C: только загрузочные файлы. Я использую резервное копирование образа системы Windows как для Win 7, так и для Win 10, а резервное копирование образа системы Windows всегда включает в себя раздел C: (загрузочный), в дополнение к разделу Win 7 или Win 10, так что это еще один сценарий, в котором уменьшение количества Данные и программы в разделе C: сокращают время и пространство, необходимые для резервного копирования образа системы (или восстановления при необходимости).


Я оставляю этот раздел в своем ответе из-за комментариев ниже.

Поскольку моя система является мультизагрузочной, перезагрузка в другую ОС упрощает резервное копирование разделов данных / программ, так как во время резервного копирования не выполняется никаких действий с разделами. Я написал простую программу резервного копирования, которая выполняет копирование папки + файла вместе с информацией о безопасности и повторном анализе, но она не совсем работает для разделов ОС Win 7 или Win 10, поэтому я использую резервное копирование образа системы для C ;, Win 7 и Win 10 OS разделов.

rcgldr
источник
3
...что? Там нет недостатка в инструментах и ​​методах для резервного копирования системного раздела. Кроме того, ваша домашняя система резервного копирования, скорее всего, выйдет из строя из-за чего-либо сложного, потому что она не обрабатывает типичные случаи жестко связанных файлов (SxS сильно зависит от этого), точки соединения (опять же, ядро ​​ОС полагается на это), частично записанные файлы (VSS обрабатывает это), заблокированные файлы (опять же, VSS) и т. д.
Боб
Я могу, вероятно, назвать полдюжины различных пакетов программ - veem, macrium, acronis, symentec ghost ... которые делают это. Большинство из них также используют встроенные механизмы в фоновом режиме.
Подмастерье Компьютерщик
Я запускаю Veeam, резервное копирование на внешний диск, но бегаю ежедневно. Есть еще несколько движущихся частей для резервного копирования, но вам, конечно, не нужно выполнять дефрагментацию вручную или резервное копирование в автономном режиме.
Подмастерье Компьютерщик
Насколько онлайновое резервное копирование полного раздела, просто обо всем , использует VSS , чтобы получить определенный момент времени снимки ( в противном случае вы столкнулись с проблемами при создании резервной копии, скажем, файл базы данных , который частично написан, то резервного копирование журнала базы данных после файл закончил чтение). Disk2vhd - самый тривиальный пример; более полнофункциональные пакеты, такие как Acronis, будут дополнительно обрабатывать дифференциальные / инкрементные изображения.
Боб
@Bob - я запускаю свою программу только после перезагрузки в другую ОС, поэтому резервное копирование любого раздела не активно, что позволяет избежать моментального снимка при попытке сделать резервную копию активного раздела. Это похоже на загрузку с CD-ROM для запуска утилиты создания образа диска для «клонирования» жесткого диска (что я сделал некоторое время назад, когда заменил все свои жесткие диски).
rcgldr
2

Нет, не с Windows и ее основными программными пакетами, настаивающими на связях с Системой: несмотря на установку их в Программы :. (Это институционализированная необходимость в том, как создается большинство операционных систем.) Объем Data: имеет смысл, но отдельный съемный диск для ваших данных (или NAS, или выборочное или инкрементное резервное копирование на такой съемный диск) имеет еще больший смысл.

Разбиение для систем с несколькими ОС также имеет смысл, но каждый раздел заставляет вас выбирать жесткий верхний предел хранилища. Вообще лучше с отдельными дисками даже в этом случае.

И сегодня виртуальные машины и облачные накопители дополняют многие из этих вариантов.

Хенрик Эрландссон
источник
2

Есть одна конкретная причина - использование объемных снимков.

Снимок тома - это резервная копия всего раздела. При восстановлении из резервной копии такого типа вы перезаписываете весь раздел, эффективно возвращая систему к предыдущему состоянию.

Системный администратор может создавать такие снимки на регулярной основе при подготовке к любым сбоям программного обеспечения. Они даже могут хранить их на другом разделе того же диска. Вот почему вы хотите, чтобы системный раздел был относительно маленьким.

При использовании этой схемы пользователям рекомендуется хранить свои данные на сетевом диске. В случае каких-либо проблем с программным обеспечением системный администратор может просто откатить систему в рабочее состояние. Это было бы чрезвычайно эффективным по сравнению с ручным расследованием причин проблемы и ее устранением.

Enkryptor
источник
0

Я программирую почти полвека. В другом ответе указывается исторический, а в другом длинном ответе говорится о нескольких физических дисках .

Я хочу подчеркнуть, что несколько физических дисков, скорее всего, начали рекомендацию. Более полувека назад, когда еще не было таких разделов, было очень распространено использование отдельного физического диска для системы. Основной причиной этого является физическое движение головок и вращение дисков. Эти преимущества не существуют для разделов, когда физический диск часто используется для других целей.

Также обратите внимание, что Unix разделяет систему и данные на отдельные разделы. Есть много веских причин для этого, как объясняется во многих других ответах, но для производительности, отдельные физические диски являются основным оправданием.

user34660
источник
-1

Причиной, по которой мы делали 2 раздела, были вирусы. Некоторые вирусы используются для перезаписи загрузочного сектора и начала диска.

Резервные копии на компьютерах пользователей раньше сводились к копированию всей программы на дискету. (На самом деле не резервная копия)

Поэтому, когда вирус «съел» начало диска, обычно нужно было переустановить только систему.

И если не было никаких резервных копий, то восстановление данных было бы проще, если бы второй раздел был целым.

Так что если у вас есть резервные копии, эта причина не действительна.

Роберт Анджейюк
источник