С развитием гиперконвергентных систем мы можем видеть другую технологию, кроме RAID, для управления распределенным хранилищем (например, ceph или VSAN или распределенное хранилище, как в nutanix).
Но есть ли технология с открытым исходным кодом, основанная на объектном хранилище, которое я могу использовать на одном сервере с большим диском, скажем, с дюжиной дисков SATA 12, что обеспечит безопасность данных, но без недостатка в огромном времени восстановления при замене диск. Таким образом, Dynamic Disk Pool - это форма декластеризованного RAID, которая может использоваться на уровне блоков, например, iscsi или файловой системе, например, zfs или brtrfs.
Я хотел бы предоставить что-то похожее по функциональности в отсек SYNOLOGY (NFS, iscsi target, SMB), но без RAID для блочного хранилища.
спасибо за ваши показания.
источник
Ответы:
Для одной системы я бы действительно предложил придерживаться хорошо известных и эффективных RAID-массивов. Хранилища объектов имеют значительное снижение производительности по сравнению с классическим доступом к файлам и блокам, и, если вы не уменьшите масштаб, вы потеряете многие из их преимуществ.
Тем не менее, за исключением классического RAID у вас есть следующие возможности:
не боится , который использует подход репликации на уровне файлов, а не на уровне блоков
glusterfs , настройка отдельного кирпича для каждого диска и применение
replica 2
политикиzfs, хотя и основанный на блоках, не на 100% идентичен классическому программному или аппаратному RAID
Также обратите внимание, что хранение объектов не гарантирует меньшее время восстановления; напротив, он решает проблему длительных перестроений, гарантируя более надежные политики репликации (т. е.
replica 3
на разных стойках).источник
zfs set checksum=off
, но я не могу представить, почему кто-то запустит ZFS и сделает это.) Даже при отсутствии избыточности хранилища это может быть большим преимуществом, потому что вы точно будете знать, кто из ваших боссов ... э-э важные таблицы ... должны быть восстановлены из резервной копии.«Это обеспечит сохранность данных, но без недостатка в огромном времени восстановления при замене диска»
Вы заблуждаетесь, полагая, что программное обеспечение может изменить реальность, то есть физику. Время перестройки по сути сводится к тому, что нужно записать отличный диск, и если вы записываете 2 ТБ информации на диск, это занимает много времени, ПОТОМУ ЧТО ТАК КАК ДИСКИ ведут себя. В частности, если вам нужно прочитать несколько дисков, чтобы получить недостающие данные в первый раз (аналог Raid 5,6). Существуют подробности того, насколько «глупым» может быть программное обеспечение (т. Е. Добавление времени к физическому минимуму), но этот минимум уже равен часам, если говорить о медленных больших дисках SATA.
Все остальные технологии, о которых вы упоминаете, должны придерживаться такого же проблематичного большого времени, которое вы хотите избежать, потому что - физика.
И это не помогает, если ваша кластерная сеть - если вы выполняете репликацию сети - использует 10g или ниже (что наиболее вероятно) вместо 40g или 100g.
источник