Я работаю над расширением серверной части хранилища для нескольких кластеров VMware vSphere 5.5 и 6.0 в моем центре обработки данных. В первую очередь я использовал хранилища данных NFS в своем опыте работы с VMware (Solaris ZFS, Isilon, VNX, Linux ZFS) и, возможно, представил в среду массив Nimble iSCSI , а также возможный гибридный массив Tegile (ZFS) .
Текущие решения для хранения данных - это массивы на основе ZFS Nexenta и Linux, которые обеспечивают монтирование NFS для хостов vSphere. Сетевое подключение обеспечивается через 2 x 10GbE LACP соединительных линии на головках хранения и 2 x 10GbE на каждом хосте ESXi. Коммутаторы представляют собой сдвоенные верхние стойки Arista 7050S-52, настроенные как одноранговые MLAG .
Со стороны vSphere я использую распределенные коммутаторы vSphere (vDS), настроенные с связями LACP на восходящих каналах 2 x 10GbE и распределенных общих ресурсах управления вводом- выводом (NIOC) для группы портов VM, NFS, vMotion и трафика управления.
Это решение и подход к проектированию прекрасно работали в течение многих лет, но добавление блочного хранилища iSCSI для меня очень важно. Мне все еще нужно будет сохранить инфраструктуру NFS в обозримом будущем.
Я хотел бы понять, как я могу интегрировать iSCSI в эту среду, не меняя свой физический дизайн. MLAG на переключателях ToR чрезвычайно важен для меня.
- Для хранилищ на основе NFS LACP является общепринятым средством обеспечения избыточности пути.
- Для iSCSI обычно не одобряют LACP, при этом рекомендуется многопутевой дизайн MPIO.
- Я использую 10GbE везде и хотел бы сохранить простые двухпортовые ссылки на каждый из серверов. Это для прокладки кабелей и простоты дизайна.
Учитывая вышесказанное, как я могу максимально использовать решение iSCSI?
- Настроить iSCSI через LACP?
- Создайте адаптеры VMkernel iSCSI на vDS и попытайтесь связать их для разделения каналов связи для достижения какого-либо мутанта MPIO?
- Добавить больше сетевых адаптеров?
источник