В комментариях к ответу Chopper3 были некоторые споры, которые недостаточно хорошо информированы из-за некоторых плохо понятых аспектов сетевых требований Equallogic и поведения при многолучевом распространении.
Во-первых, на стороне VMware.
Для начинающих на стороне ESXi текущая рекомендация при использовании программного инициатора iSCSI от VMware (для ESX \ ESXi 4.1) и Dell состоит в том, что у вас должен быть один физический Nic, сопоставленный каждому порту VMkernel, который будет используется для iSCSI. Процесс привязки, который сейчас рекомендуется, обеспечивает это. Это требует, чтобы у вас был только один активный физический ник и никаких резервных сеток для каждого порта VMkernel. Не допускается склеивание. Теперь вы можете обмануть это, а потом вернуться назад и добавить отказоустойчивый ник, но намерение состоит в том, что MPIO будет обрабатывать аварийное переключение, так что это не приносит никакой пользы (по крайней мере, когда все работает так, как задумано VMware).
Политика многолучевого распространения по умолчанию разрешает активные, активные подключения к массиву Equallogic с использованием циклического перебора.
Вторая сторона Equallogic:
массивы Equallogic имеют двойные контроллеры, которые работают в активном режиме ожидания. Для PS4000 у них есть два гигабитных Nics на каждом контроллере. Для активного контроллера обе эти сети активны и могут получать ввод-вывод от одного и того же источника. Конфигурация сети рекомендует подключать сетку к отдельным коммутаторам. Со стороны сервера у вас есть несколько ссылок, которые также должны быть распределены по отдельным коммутаторам. Теперь о странной части - массивы Equallogic ожидают, что все порты инициатора могут видеть все активные порты в массивах. Это одна из причин, по которой вам нужен транк между двумя коммутаторами. Это означает, что для хоста с двумя портами VMkernel iSCSI и одним PS4000 существует 4 активных пути между инициатором и целью - два являются «прямыми»
Для подключений резервного контроллера применяются те же правила, но эти функции будут активны только после аварийного переключения контроллера и применяются те же принципы. После отработки отказа в этой среде все еще будет четыре активных пути.
В-третьих, для более продвинутого многопутевого
доступа : Equallogic теперь имеет модуль Multipath Extension Module, который подключается к архитектуре VMware Plugable Storage, которая обеспечивает интеллектуальное распределение нагрузки (с использованием минимальной глубины очереди, Round Robin или MRU) через порты VMkernel. Это не будет работать, если все восходящие каналы vmkernel не могут подключиться ко всем активным портам Equallogic. Это также гарантирует, что число фактически используемых путей остается разумным - в больших средах Equallogic число допустимых путей между хостом и Equallogic Group может быть очень большим, поскольку все целевые сети активны, и все исходные сети могут видеть все целевые сети.
В-четвертых, для более крупных сред Equallogic.
По мере расширения среды Equallogic вы добавляете дополнительные массивы в общую группу. Все активные порты на всех членских массивах в группе должны видеть все другие активные порты на всех других массивах в той же группе. Это еще одна причина, по которой вам нужны толстые каналы, обеспечивающие межкоммутаторные соединения между всеми коммутаторами в вашей структуре Equallogic iSCSI. Такое масштабирование также значительно увеличивает количество действительных активных путей между инициаторами и целями. С Equallogic Group, состоящей из 3 массивов PS6000 (четыре nics на контроллер против 2 для PS4000), и хостом ESX с двумя портами vmkernel, будет 24 возможных активных пути для стека MPIO на выбор.
Пятое объединение \ агрегация ссылок и связи между коммутаторами в равноправной среде.
Все соединения между массивами и массивами инициатора <-> являются одноточечными гигабитными соединениями (или 10 гигабит, если у вас есть массив 10 гигабайт). Нет необходимости и нет никакой выгоды от соединения на стороне сервера ESX, и вы не можете связать порты на массивах Equallogic. Единственная область, в которой агрегация ссылок \ соединение \ независимо от того, что вы хотите назвать, уместна в коммутационной матрице Equallogic с коммутацией каналов, - это межсоединения. Эти каналы должны иметь возможность переносить параллельные потоки, которые могут равняться общему количеству активных портов Equallogic в вашей среде - вам может потребоваться большая суммарная пропускная способность, даже если каждая точка-точка соединения между портами массива и портами инициатора ограничена 1 Гбит / с.
Наконец:
в среде Equallogic трафик от хоста (инициатора) к массиву может и будет проходить по межсоединению. То, будет ли это делать конкретный путь, зависит от IP-адреса источника и назначения для этого конкретного пути, но каждый исходный порт может подключаться к каждому целевому порту, и по меньшей мере один из этих путей потребует пересечения ISL. В небольших средах (таких как этот) все эти пути будут использованы и активны. В больших средах используется только подмножество возможных путей, но такое же распределение будет. Общая пропускная способность iSCSI, доступная хосту (если он правильно настроен), представляет собой сумму всей пропускной способности порта iSCSI vmkernel, даже если вы подключаетесь к одному массиву и одному тому. Насколько это может быть эффективно - это еще одна проблема, и этот ответ уже слишком длинный.
ESX / i осуществляет свое собственное управление путями - он не будет активным / активным на своих каналах, если два или более каналов не будут подключены к одному и тому же коммутатору или коммутаторы находятся в режиме совместного использования CAM, например, VSS Cisco - что угодно иначе будет активная / пассивная конфигурация.
Во что бы то ни стало транк между коммутаторами, если вы хотите, но, вероятно, они оба имеют восходящие ссылки на какой-то основной коммутатор или маршрутизатор? если это так, то я не совсем уверен, почему вы будете соединяться между двумя коммутаторами таким образом, поскольку блоки ESX / i просто переключатся на второй коммутатор, если первый выйдет из строя (если все равно настроен правильно).
Я не знаю, откуда взялась эта гипотеза, ESX / i так же комфортно работает с тегами или без тегов, как для гостевого трафика, так и для трафика iSCSI. Тем не менее, у меня были проблемы со смешиванием тегов и тегов при использовании VLAN по умолчанию, поэтому я всегда помечаю все сейчас и у меня нет VLAN по умолчанию, это очень гибкая настройка и не имеет заметного снижения производительности в моем опыте.
источник
Это контроллер массива SAN, который определяет, как вы должны это подключить. Это обеспечивает тот же LUN на обоих портах на том же контроллере? Затем порт 0 переходит к коммутатору А, порт 1 - коммутатору В и то же самое со следующим контроллером.
Почему вы хотите использовать LACP / etherchannel против iSCSI SAN с портами восходящей линии связи 1 Гбит? Это никак не поможет вам. Создайте 2 vswitch с одним pNic в каждом vSwitch и подключите первый pNic к switchA, второй pNic к switchB. Это обеспечит вам полное резервирование против сбоев контроллера / коммутатора / никеля.
источник