Я довольно новичок в ceph и пытаюсь выяснить, поддерживает ли ceph HBA на аппаратном уровне.
К сожалению, не смог найти никакой информации. Я обнаружил, что для OSD рекомендуется использовать простые диски. Но это выдвигает требования к PCIe, интерфейсам диска к высокой пропускной способности, а требования к ЦП очень высоки. Аппаратные RAID-контроллеры уже решили эти требования, и они обеспечивают высокую избыточность в зависимости от настроек, не используя мой PCIe, CPU или любые другие ресурсы.
Поэтому я бы хотел, чтобы у меня был локальный RAID-контроллер (и), который обрабатывал бы избыточность моего диска на уровне контроллера (Raid 5, raid 6) независимо от того, какой уровень RAID мне нужен. Вдобавок к тому, что RAID LUN, я хотел бы использовать ceph для более высокого уровня репликации между: хостом, шасси, стойкой, строкой, центром обработки данных или любым другим возможным или планируемым в CRUSH
Есть опыт в этой настройке?
Это рекомендуемая установка?
Есть какая-нибудь глубокая документация для этой аппаратной интеграции RAID?
источник
Не совсем, многие рабочие нагрузки хранения хорошо обслуживаются современными процессорами общего назначения и межсоединениями.
Да, контроллер RAID заботится о резервировании с помощью нескольких дисков в одном корпусе. Но это стоит затрат и сложностей, когда вы используете уже избыточные многоузловые решения распределенного хранения, такие как Ceph. Зачем зеркалировать физический диск, если у Ceph уже есть несколько его копий?
Строительные блоки такого решения - просто связка дисков. Такие как Open Vute Storage Compute Storage . 30 шпинделей в корпусе, прикрепленном к вычислительному узлу, возможно, из пары десятков ядер ЦП. Добавьте столько узлов, сколько вам нужно для масштабирования. Вы можете оставить эти вычисления выделенными для Ceph, если хотите максимизировать пропускную способность.
источник
Рекомендуемая настройка - использовать отдельные диски или, в конце концов, диски в парах RAID-1.
Один контроллер SAS (или контроллер RAID в режиме JBOD) может без проблем управлять несколькими сотнями дисков.
Использование очень больших массивов наносит ущерб самой цели CEPH, которая заключается в том, чтобы избежать единичных точек сбоев и «горячих точек». Это также повредит вашей избыточности.
Допустим, вы хотите построить кластер CEPH емкостью 1 ПБ, используя диски емкостью 8 ТБ, используя шасси с 36 дисковыми серверами (обычное аппаратное обеспечение типа Supermicro). Давайте сравним настройки с и без RAID с точки зрения емкости и надежности хранилища:
С RAID-6 вам нужно 5 шасси (и 10 OSD).
С CEPH и 5 шасси у вас будет 180 OSD.
источник