Сравнивает ли динамический дисковый пул исследование, выходящее за рамки RAID для дискового кластера на сервере? [закрыто]

9

С развитием гиперконвергентных систем мы можем видеть другую технологию, кроме RAID, для управления распределенным хранилищем (например, ceph или VSAN или распределенное хранилище, как в nutanix).

Но есть ли технология с открытым исходным кодом, основанная на объектном хранилище, которое я могу использовать на одном сервере с большим диском, скажем, с дюжиной дисков SATA 12, что обеспечит безопасность данных, но без недостатка в огромном времени восстановления при замене диск. Таким образом, Dynamic Disk Pool - это форма декластеризованного RAID, которая может использоваться на уровне блоков, например, iscsi или файловой системе, например, zfs или brtrfs.

Я хотел бы предоставить что-то похожее по функциональности в отсек SYNOLOGY (NFS, iscsi target, SMB), но без RAID для блочного хранилища.

спасибо за ваши показания.

Dominix
источник
Рассматривали ли вы (например) массив RAID 5 с шестым диском в качестве «горячего» резерва?
Майк Уотерс
1
Каждый рекомендует не использовать RAID5 для больших объемов. Кстати raid5 не означает 5 дисков. Но да, горячее резервирование рекомендуется, однако у меня уже были проблемы с горячим резервом, иногда горячий резерв умер, потому что они вращались годами до того, как его использовали.
Доминикс
Вам нужно больше дисков. Единственное решение для восстановления задержки - это большая избыточность. Также стирание кодов.
Дэн Д.

Ответы:

7

Для одной системы я бы действительно предложил придерживаться хорошо известных и эффективных RAID-массивов. Хранилища объектов имеют значительное снижение производительности по сравнению с классическим доступом к файлам и блокам, и, если вы не уменьшите масштаб, вы потеряете многие из их преимуществ.

Тем не менее, за исключением классического RAID у вас есть следующие возможности:

  • не боится , который использует подход репликации на уровне файлов, а не на уровне блоков

  • glusterfs , настройка отдельного кирпича для каждого диска и применение replica 2политики

  • zfs, хотя и основанный на блоках, не на 100% идентичен классическому программному или аппаратному RAID

Также обратите внимание, что хранение объектов не гарантирует меньшее время восстановления; напротив, он решает проблему длительных перестроений, гарантируя более надежные политики репликации (т. е. replica 3на разных стойках).

shodanshok
источник
Большим преимуществом ZFS в моей книге является то, что он может сказать вам, какие файлы были повреждены; и если вы можете прочитать их, вы знаете, что они не повреждены. (За исключением случаев, когда вы это сделали zfs set checksum=off, но я не могу представить, почему кто-то запустит ZFS и сделает это.) Даже при отсутствии избыточности хранилища это может быть большим преимуществом, потому что вы точно будете знать, кто из ваших боссов ... э-э важные таблицы ... должны быть восстановлены из резервной копии.
CVn
7

«Это обеспечит сохранность данных, но без недостатка в огромном времени восстановления при замене диска»

Вы заблуждаетесь, полагая, что программное обеспечение может изменить реальность, то есть физику. Время перестройки по сути сводится к тому, что нужно записать отличный диск, и если вы записываете 2 ТБ информации на диск, это занимает много времени, ПОТОМУ ЧТО ТАК КАК ДИСКИ ведут себя. В частности, если вам нужно прочитать несколько дисков, чтобы получить недостающие данные в первый раз (аналог Raid 5,6). Существуют подробности того, насколько «глупым» может быть программное обеспечение (т. Е. Добавление времени к физическому минимуму), но этот минимум уже равен часам, если говорить о медленных больших дисках SATA.

Все остальные технологии, о которых вы упоминаете, должны придерживаться такого же проблематичного большого времени, которое вы хотите избежать, потому что - физика.

И это не помогает, если ваша кластерная сеть - если вы выполняете репликацию сети - использует 10g или ниже (что наиболее вероятно) вместо 40g или 100g.

TomTom
источник
Мой работодатель делает сетевой анализатор, который по сути является стандартным ПК со стандартными сетевыми картами 2 * 100 GbE, который анализирует трафик несжатого потокового видео в режиме реального времени. Так что это не совсем диковинно, но прагматично, да, скорость сети, скорее всего, станет дополнительным узким местом.
Йорг Миттаг
Ну, в наши дни все мои серверы работают на 2x100 ГБ, но тогда ИТ-отдел моего основного клиента продает скорость внутренней сети 1 ГБ (!) Как «высокую производительность». Кажется, что мир движется за счет денег, которые даже не знают, что такое верх.
TomTom
1
Не сократится ли время восстановления, если все диски будут SSD?
Майк Уотерс
1
Зависит. Хорошо, нет - да, оно будет уменьшено, но SATA также достигает скорости 600 Мбит / с, и если вы используете гиперконвергентную сеть, это также означает, что она должна проходить по сети. И вам даже не нужны все SSD - приличный SSD-кеш также должен помочь с чтением и записью (я использую 3.6Gb SSD-кеш на каждом сервере). Но тогда вам действительно нужен позвоночник.
TomTom
1
Майк сказал SSD, а не SATA. Есть некоторые SSD, подключенные по PCIe, которые быстрее, чем 600 МБ / с.
Питер Кордес