Я только недавно купил новый сервер HP DL380 G6. Я заменил стандартный контроллер Smart P410 на LSI 9211-8i.
Мой план заключается в использовании ZFS в качестве основного хранилища для XEN, которое будет работать на том же baremetal.
Мне сказали, что вы можете использовать диски SATA с контроллерами интеллектуальных массивов, но поскольку на потребительских дисках отсутствуют TLER, CCTL и ERC, это не рекомендуется. Это тот случай?
Мне было интересно, действительно ли использование LSI-контроллера в JBOD (режим прохода RAID) влияет на тип дисков, которые я использую, так же, как на интеллектуальный контроллер массива?
Я знаю, что попытка использовать систему RAID, не поддерживаемую кешем записи, для виртуализации не очень хороша для производительности. Но я был готов добавить SSD для ZFS. Будет ли это иметь какое-либо значение?
Я думаю, что я так одержим использованием ZFS для дедупликации и сжатия. Я не думаю, что контроллер умного массива может выполнять какие-либо из этих функций.
источник
Ответы:
Пожалуйста, не делай этого.
Если вы собираетесь запускать ZFS в Linux, делайте это голыми без слоя виртуализации. Решения для виртуализации «все в одном» и ZFS симпатичны , но не стоят усилий в производстве.
Что касается накопителей, вы можете использовать диски SATA на контроллере HP Smart Array, а также на контроллере LSI 9211-8i. В конфигурации ZFS сбой дисков SATA может оказать неблагоприятное влияние на систему при работе с контроллером LSI.
Использование потребительских дисков - это то, что есть. Войдите в это, зная предостережения.
Редактировать:
Итак, вы хотите запустить файловую систему ZFS, чтобы обеспечить хранилище для локальных виртуальных машин?
Массив P410 HP Smart является контроллером RAID хорошо. Самое главное, у вас, скорее всего, есть кэш-память с резервным питанием от батареи или флэш-памяти. Это важно для производительности. Правильное достижение того же самого в ZFS ( с использованием ZIL ) намного более затратно и требует больше инженерных идей . ZFS может не предлагать вам много возможностей по сравнению с традиционной файловой системой, такой как XFS, для этой конкретной цели.
Это было бы иначе, если бы вы использовали ZFS на выделенном сервере для предоставления хранилища другим гипервизорам.
Смотрите: Лучшие практики ZFS с аппаратным RAID
источник
Использование дисков потребительского уровня в HW серверного уровня возможно, хотя и не рекомендуется, если вы собираетесь использовать поддержку поставщика. Они будут чертовски недовольны, почему вы заменили отлично поддерживаемые диски на неподдерживаемые. Кроме того, нет проблем сделать это, и Backblaze доказал это ( http://www.getoto.net/noise/2013/11/12/how-long-do-disk-drives-last/ ).
Что касается выбора дисков, поищите диски, которые поддерживают NCQ, и у вас все будет в порядке.
Использование дисков в режиме JBOD вызывает проблемы. Вполне возможно, что контроллер LSI покажет вам только один большой диск (а вы этого не хотите). То, что вам нужно, это режим прохода (в основном используйте контроллер в качестве расширителя для количества портов. Проверьте, так ли это.
ZFS на Linux: не самая лучшая идея. Он все еще недостаточно стабилен, хотя его можно использовать. Дедуп на zfs: довольно большое нет, если вы планируете запустить серьезную нагрузку на машину. Он имеет тенденцию съедать много оперативной памяти (в диапазоне 2-4 ГБ на каждые 200-500 ГБ дедуплицированных данных). Возможно, он улучшился, но не проверил в ближайшее время. Сжатие может подойти, хотя это зависит от данных.
SSD: Да, это будет очень приятно. Есть несколько областей (ZIL уже упоминался выше), которые значительно улучшатся, если их поместить на отдельный диск (а если на SSD, тем более).
Если вы непреклонны в ZFS, я бы посоветовал использовать солярис / nexenta / opensolaris или BSD для хоста хранилища, а затем экспортировать его на хосты XEN через iscsi / ata-over-eternet / etc.
Я настоятельно рекомендую хотя бы просмотреть блог Backblaze и найти идеи, которые они используют при создании своих POD.
источник