Какой тип хранилища люди фактически используют для серверов VMware ESX?

27

VMware и многие сетевые евангелисты пытаются сказать вам, что сложные (= дорогие) оптоволоконные SAN являются «единственным» вариантом хранения для серверов VMware ESX и ESXi. Ну да, конечно. Использование SAN быстро, надежно и делает возможным vMotion. Отлично. Но могут ли все пользователи ESX / ESXi действительно позволить себе SAN?

Моя теория состоит в том, что менее 20% всех установок VMware ESX на этой планете на самом деле используют оптоволоконные или iSCS SAN. Большая часть этих установок будет в более крупных компаниях, которые могут себе это позволить. Я бы предсказал, что большинство установок VMware используют «подключенное хранилище» (vmdks хранятся на дисках внутри сервера). Большинство из них работают в МСП, а их так много!

Мы запускаем два сервера ESX 3.5 с подключенным хранилищем и два сервера ESX 4 с iSCS san. И «реальная живая разница» между ними едва заметна :-)

Знаете ли вы официальную статистику по этому вопросу? Что вы используете в качестве носителя?

Дирк Песслер
источник
5
Должно быть сообщество Wiki
MDMarra
Тезис или теория?
Марк Хендерсон

Ответы:

27

Я много работаю с консалтингом VMware и скажу, что проценты ближе к 80% установленной базы используют общее хранилище высокой доступности (FC, iSCSI или high-end NAS), и многие из моих клиентов - МСП. Ключевой фактор, который я обнаружил, заключается в том, рассматривает ли компания время работы своего сервера как критическое или нет, для большинства компаний сегодня это так.

Вы, безусловно, можете запускать очень высокопроизводительные виртуальные машины из хранилища с прямым подключением (HP DL380 G6 с 16 внутренними дисками в массиве RAID 10 будет иметь довольно быстрый дисковый ввод-вывод), но если вы создаете VMware или любую другую виртуализированную среду, чтобы заменить десятки, сотни или тысячи серверов, вы безумны, если не вкладываете много сил (и, возможно, денег) в надежную архитектуру хранения.

Вам не нужно покупать высокопроизводительное SAN для функций кластеризации - вы можете реализовать их с помощью довольно дешевого NAS (или виртуального SAN, такого как HP \ Lefthand VSA) и при этом использовать сертифицированное хранилище. Однако, если вы используете общее хранилище, и оно не имеет избыточности во всех точках инфраструктуры SAN \ NAS, тогда вам не следует использовать его для гораздо большего, чем для тестирования. И резервирование - это (как минимум) двойные (независимые) сетевые адаптеры HBA \ хранилища на ваших серверах, двойные независимые матрицы, резервированные контроллеры в сети SAN, резервное копирование кэш-памяти с резервным питанием от батареи, резервные вентиляторы с горячей заменой, блоки питания и т. Д., RAID 5 \ 6 \ 10 \ 50 и соответствующее количество горячих резервов.

Реальная разница между вашими системами заключается в том, что если одна из ваших автономных систем дает сбой, у вас есть много работы, чтобы восстановить ее, и вы будете вынуждены делать простои, просто исправляя ее. В кластерных системах, подключенных к SAN, исправление гипервизоров или даже обновление оборудования гипервизора должно привести к нулевому времени простоя. Катастрофический сбой сервера просто приводит к остановке службы на время, необходимое для перезагрузки виртуальной машины на отдельном узле (в худшем случае), или если у вас есть отказоустойчивость, покрывающая эти виртуальные машины, то у вас вообще нет простоев.

Helvick
источник
В зависимости от вашего бизнеса избыточное дублирование по всем параметрам может быть избыточным - несколько запасных частей (например, hbas и gbics) могут решить многие проблемы. Если у вас есть отказоустойчивость кластера, это плюс некоторая экипировка может обеспечить достаточную отказоустойчивость для многих компаний, особенно когда FC наносит вам удар по наклейке.
Джим Зайковски
Я должен добавить наши восемь серверов ESX, все используют общий диск FC для хранения.
Джим Зайковски
1
Правда, и шок от наклеивания FC - это реальная проблема (в частности, затраты на лицензирование портов на коммутаторах FC, в частности, вызывают у меня постоянную изжогу), но при длительной поддержке с полным резервированием все становится намного проще, вы можете избежать практически всех простоев, например, для обслуживания инфраструктуры. , Для FC это резервирование стоит руки и ноги (и, может быть, почки или двух), но с iSCSI или средой NAS это не сильно увеличивает общую стоимость, даже при использовании относительно дорогих компонентов.
Хелвик
1
Мне еще предстоит увидеть «удвоение всего»… обычно диски SAN подключаются к одной объединительной плате, что является единственной точкой отказа.
Джеймс Ристо
1

Поскольку у нас более тысячи хостов, мы начали с FC, некоторое время пробовали iSCSI, но отказались от FC из-за проблем с производительностью. Мы серьезно смотрим на NFS, но пока не имеем никаких выводов. Да, и мы используем HP XP / EVA и некоторые NetApp, у нас нет локальных панелей хранения рабочего стола / хостов разработчиков.

Chopper3
источник
1

Как видите, не существует одного подходящего размера, и это не относится к единому решению для хранения данных. Вы можете иметь несколько классов хранения в зависимости от доступности и требований к производительности.

allruiz
источник
1

Для высокопроизводительных операций записи и чтения я нашел FC непревзойденным по производительности, и хотя цена высока ... Это просто работает ... для более обыденных ожиданий производительности iSCSI на самом деле работает довольно хорошо, поэтому я обычно получаю обмениваться файлами почтовых ящиков сервера в дисковой подсистеме FC и собственно загрузочными дисками на интерфейсном диске iSCSI, причем DNS-серверы и компьютеры Active Directory также работают с iSCSI

Стивен Томпсон
источник
1

Я запускаю ESX с SAN, NAS и DAS. Это полностью зависит от:

  1. бюджет
  2. опыт
  3. центр обработки данных и / или место в стойке
  4. Деньги

По надежности и скорости, я не думаю, что вы можете победить SAN.

Для надежности и стоимости я бы пошел с NAS.

А по скорости и стоимости, DAS.

Не то чтобы отдельные варианты не пересекались с некоторыми, но это сильные стороны, которые я засвидетельствовал.

кроличий садок
источник
0

Мы используем 4 сервера ESX 4 и используем EqualLogic iSCSI SAN.

Ричард Вест
источник
Какое оборудование EqualLogic можно сравнить с левосторонним или традиционным SAN с точки зрения цены и производительности?
Сим
Мне также любопытно узнать, как сравнивает LeftHand теперь, когда HP приобрела их
Уоррен
У меня нет опыта работы с LeftHand. Я на самом деле делаю некоторые сравнения между нашей установкой EqualLogic и SAN Fibre Channel от Compellent. Я отправлю обратно с обновлением, когда у меня будут некоторые результаты.
Ричард Вест
0

В небольших установках локальное хранилище вполне приемлемо, если у вас есть подходящие диски - я бы сказал, 10k RPM + диски SAS. Единственный раз, когда вы ДОЛЖНЫ использовать общий диск (я намеренно не сказал san, поскольку ваш общий диск может быть отключен, а общий ресурс NFS) - это когда вам нужно выполнить кластеризацию - VMWare HA и DRS.

На данный момент у нас есть 3 уровня хранилища - FiberChannel SAN, High End Equalogix SAN и Low End MD3000i SAN. Последние два - iSCSI. Мы также запускаем некоторые серверы из локального хранилища серверов ESX - в основном это служебные серверы, которые нас не интересуют, если они не работают в течение часа или двух, пока мы исправляем ситуацию, если все пойдет не так.

Мы также запускаем нашу тестовую среду на домашнем NAS-накопителе, используя диски SATA 7,2 КБ и корпоративную цель iSCSI (производительность не так уж и высока, но она нам помогает).

Многие люди стремятся бороться с акциями NFS и в более крупных средах. Я хотел поиграть с этим некоторое время, но не нашел время.

Zypher
источник
0

Мы запускаем четыре (ну, в общем, четыре в прямом эфире, один для тестирования) хоста ESXi с матрицей iSCSI, построенной из обычных коммутаторов, и низкоуровневую Hitachi SAN - SMS-100.

Даже на этом уровне у нас есть сдвоенные контроллеры, каждый из которых имеет два порта на объединительной плате SAS, так что любой контроллер может захватывать диски, и двойные интерфейсы, которые мы пересекаем по проводному соединению с двойными коммутаторами и подключаем к двойным соединениям на хостах ESX.

Каждый из томов VFS имеет четыре видимых пути, поэтому он достаточно терпим. Мы используем коммутацию Dell Powerge для фабрики - у них наверняка есть потенциальные проблемы (меньше всего, нет резервных блоков питания) ... но они также достаточно дешевы, так что наличие двух предварительно сконфигурированных запасных частей в коробке, готовой к замене, становится реальной возможностью.

Очевидно, что если вы хотите больше девяток, вам нужно потратить больше денег, но я думаю, что прелесть комплекта iSCSI, ESXi и стандартного Gigabit Ethernet в том, что вы можете достичь своего веса с точки зрения устойчивости и производительности.

TheoJones
источник
0

У всего есть свои плюсы и минусы ... Итог - SLA, загрузка приложений и масштаб. Поэтому, если вам нужно высокопроизводительное хранилище для небольшого развертывания (1-5 хостов), вы, вероятно, можете использовать его с NFS (на самом деле однажды я достиг лучшей задержки с NFS, чем с SAN с использованием RAM-дисков). Теперь попробуйте масштабировать это, и вы обнаружите, что стоимость репликации вашей установки в масштабе очень сравнима с хорошим SAN, что делает FC единственным логическим вариантом для просмотра ... В большинстве случаев я заканчиваю тем, что использую комбинации для различных сервисов (приложений). БД, резервные копии, архивы) не единой платформой для оптимизации затрат, в зависимости от потребностей.

a.atlam
источник