У меня есть коробка OpenSolaris, разделяющая две файловые системы ZFS. Одним из них является соединение NFS с блоком CentOS, на котором работает сервер VMware (образы дисков хранятся в ZFS). Другой - соединение iSCSI с сервером Windows 2008 с форматированием NTFS поверх ZFS. Оба соединения являются прямыми по гигабайту (без переключателей).
Я бегу Мунином, чтобы следить за коробками, но я не уверен, какие цифры мне следует ожидать. Кто-нибудь может дать мне несколько базовых чисел для сравнения или дать какие-либо предложения о том, с чего начать настройку?
Вот статистика NFS, которую я вижу, я выложу iSCSI, как только я исправлю munin на коробке соляриса: P
vmware-server
nfs
iscsi
zfs
Sysadminicus
источник
источник
Ответы:
Мы выдвинули Sun X4100 с записью через GigE и iSCSI на Sun X4500 до 280 МБ / с.
Можно многое сделать, чтобы настроить стек TCP в Solaris, чтобы помочь, это мой мой стандартный конфигурационный конфигурационный набор. (взять из какой-то коллекции Sun Sun):
Кроме того, на вашем компьютере OpenSolaris стоит обратить внимание на изменение интервала fsflush, «магию» настройки прерываний и отключение программных колец. Добавьте следующее в / etc / system (требуется перезагрузка):
Стоит отметить, что я делаю это на Solaris 10, а не на OpenSolaris, но я думаю, что настраиваемые параметры должны работать для вас точно так же.
Я большой поклонник Filebench для того, чтобы поиграть с настройками и тестами производительности.
(Недавно переименованный) выпуск OpenSolaris 2009.06 выглядит очень захватывающим в мире iSCSI и ZFS.
Надеюсь, это поможет некоторым!
источник
Я получаю около 90 МБ / с для моих массивов EMC AX150i по iSCSI в 1 ГБ Ethernet.
источник
Только для одного dd или bonnie ++ (сырая скорость, линейная запись) вы должны быть достаточно близки к скорости передачи.
Но узким местом будет дисковый массив, как только вы начнете получать случайную нагрузку ввода-вывода нескольких виртуальных машин, гораздо больше, чем транспорт.
Кроме того, если у вас нет кэша записи с резервным питанием от батареи со значительным объемом оперативной памяти, ваша производительность будет снижаться, как только вы начнете получать много записей с любым другим вводом-выводом.
источник
Я был в состоянии выдвинуть данные по iSCSI приблизительно к 200 Мбит / с по ссылкам на 1 ГБ. Но у меня был 14-дисковый RAID 6, размещенный на EMC CX4-240, и кеш в то время почти ничего не использовал.
Самым большим узким местом, вероятно, будет количество кеша контроллера и скорость дисков (для случаев, когда кеш заполнен).
источник
Я получаю около 80 МБ / с на мой сервер Windows через ISCSI в 1G Ethernet. Цель: сервер KernSafe iStorage http://www.kernsafe.com/Product.aspx?id=5 Инициатор: Инициатор Microsoft www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825=displayg ан
Hardisk: ATA 7200
источник
Для тех из нас, кто ближе к полу-про-концу вещей (а не к профессионалам), я получаю постоянную и непротиворечивую запись 150 МБ с возможностью записи 120 МБ с сервера W2012 с двойным 1-гигабитным никелем, объединенным через управляемый коммутатор draytek на blackarmorsnas через медь RJ45, одиночная передача файла 20 ГБ. Никаких других одновременных операций во время теста. Чтобы добиться этого, я использую jumbo-кадры 9k, rx & tx flow, то есть все обычные оптимизации драйвера, но никаких твиков, кроме включения вещей и увеличения jumbo frame до макс.
источник