Как изменяется IOPS хранилища в зависимости от емкости диска?

12

При прочих равных условиях, как изменится производительность IOPS массива хранения, если использовать диски большего размера.

Например, возьмите массив с дисками 10 X 100 ГБ.

Измерение IOPS для последовательных записей блока 256 КБ (или любой метрики IOPS)

Давайте предположим, что полученный измеренный IOPS равен 1000 IOPS.

Измените массив на один с 10 X 200 ГБ дисков. Форматирование с одинаковой конфигурацией RAID, одинаковым размером блока и т. Д.

Можно ли ожидать, что IOPS останется таким же, увеличится или уменьшится? Будет ли изменение примерно линейным? то есть увеличение в 2 раза или уменьшение в 2 раза (так как я увеличил емкость диска в 2 раза)

Повторите эти вопросы с 10 X 50GB дисков.

Изменить: больше контекста

Этот вопрос возник как беседа между моей командой Sysadmin, которая не очень хорошо разбирается в хранении всех вещей. (Удобно со многими аспектами хранения, но не с деталями управления SAN или чем-то еще). Мы получаем большую кучу новых лотков Netapp, которые имеют более высокую емкость диска на диск - двойную емкость - чем наши существующие лотки. Пришел комментарий, что число операций ввода-вывода в секунду новых лотков будет ниже только потому, что диски были больше. Затем пришла автомобильная аналогия, чтобы объяснить это. Ни один комментарий не понравился мне, поэтому я хотел передать его в Команду, т. Е. Stack-Exchange-land.

Автомобильная аналогия была чем-то вроде двух автомобилей с разным ускорением, одинаковой максимальной скоростью и пробегом в четверть мили. Затем измените расстояние до полумили. На самом деле, я не могу вспомнить точную аналогию, но так как я нашел еще одну аналогию в Интернете, я подумал, что это, вероятно, обычная аналогия IOPS.

В некотором смысле, фактический ответ на вопрос не имеет для меня большого значения, так как мы не используем эту информацию для оценки покупки. Но нам нужно оценить лучший способ прикрепления лотков к существующей головке и лучший способ вырезать агрегаты и объемы.

JDS
источник
2
Операции ввода-вывода в секунду не будут увеличиваться при увеличении емкости диска - они связаны со скоростью сквозной передачи данных и скоростью ввода-вывода диска (и кэшированием). Какую конкретную проблему вы пытаетесь решить?
EightBitTony
3
Это гипотетически (и, следовательно, не по теме)?
mfinni
На самом деле это не изменится ... если только вы не говорите об ограничении движения головы через блюдо с помощью коротких ударов ... Или сверхпропорциональных SSD ...
Ewwhite
Напомним, что более крупные диски обычно содержат более современные контроллеры, двигатели и головки, меньшие диски обычно просто повторно используют предыдущие поколения, которые «достаточно хороши», поэтому диски большой емкости часто быстрее, но не потому, что они больше, а потому, что они больше. лучше сделано.
Vality
2
@mfinni: К сожалению, существуют облачные сервисы, которые имеют искусственное ограничение IOPS в зависимости от размера (виртуального) диска. Смотрите мой ответ для деталей. Я видел "devops", смущенный этим прежде.
dotancohen

Ответы:

8

Чтобы ответить на ваш вопрос напрямую - при прочих равных условиях - без изменений, когда меняется ГБ.

Вы не измеряете IOPS с ГБ. Вы используете время поиска и время ожидания.

Я мог бы переписать все это здесь, но приведенные ниже примеры уже все это делают, и я просто повторю это:

https://ryanfrantz.com/posts/calculating-disk-iops.html

http://www.big-data-storage.co.uk/how-to-calculate-iops/

http://www.wmarow.com/strcalc/

http://www.thecloudcalculator.com/calculators/disk-raid-and-iops.html

Ян Макинтош
источник
или techrepublic.com/blog/the-enterprise-cloud/...
Ян Макинтош
Но не увеличивается ли время поиска и время ожидания, если диск имеет большую емкость?
JDS
Не обязательно @JDS. Иногда они делают, а иногда нет, потому что производители постоянно вставляют все больше битов в пластинки (больше ГБ), а также постоянно улучшают другие аспекты своих жестких дисков. Когда диск становится больше, он также часто получает другие обновления оборудования одновременно, что может снизить время поиска или задержку, увеличивая тем самым количество операций ввода-вывода в секунду. Но это все спорный вопрос, потому что GB не имеет прямого отношения к IOPS, только время поиска и задержка чтения и записи влияют на IOPS.
Ян Макинтош
11

Я знаю, что это, вероятно, гипотетический вопрос ... Но мир информационных технологий действительно не работает таким образом. Есть реалистичные ограничения, которые необходимо учитывать, а также другие вещи, которые могут повлиять на IOPS ...

  • Диски 50 ГБ и 100 ГБ на самом деле больше не существуют. Подумайте подробнее: 72, 146, 300, 450, 600, 900, 1200 ГБ на корпоративных дисках и 500, 1000, 2000, 3000, 4000, 6000 ГБ на носителях массовой информации ближней / средней линии.

  • В современном хранилище так много абстракций; Кэширование диска, кеширование контроллера, разгрузка SSD и т. д., которые трудно было бы различить.

  • У вас есть различные форм-факторы привода, интерфейсы и скорости вращения. Диски SATA имеют другой профиль производительности, чем SAS или SAS ближней линии . Диски со скоростью 7200 об / мин ведут себя иначе, чем 10 000 об / мин или 15 000 об / мин. И доступность различных скоростей вращения ограничена определенными возможностями.

  • Макет физического контроллера. Расширители SAS, контроллеры RAID / SAS могут влиять на количество операций ввода-вывода в зависимости от расположения дисков, скорости переподписки, независимо от того, является ли подключение внутренним по отношению к серверу или во внешнем корпусе. Большое количество дисков SATA плохо работает на расширителях и во время ошибок диска .

  • На некоторые из них может влиять фрагментация, используемая емкость дискового массива.

  • Вы когда-нибудь слышали о коротких поглаживаниях ?

  • Программный и аппаратный RAID, предварительная выборка, адаптивное профилирование ...

Что заставляет вас верить , что потенциал будет иметь никакого влияния на производительность в первую очередь? Можете ли вы предоставить больше контекста?

Редактировать:

Если тип диска, форм-фактор, интерфейс и используемая емкость одинаковы, то в IOPS не должно быть заметной разницы. Допустим, вы переходите с корпоративных дисков SAS 10k на 300 ГБ и 600 ГБ. При том же количестве шпинделей вы не увидите никакой разницы в производительности ...

Однако, если на упомянутых вами полках дисков NetApp используются объединительные платы SAS 6 Гбит / с или 12 Гбит / с по сравнению с устаревшими 3 Гбит / с, вы можете увидеть изменение пропускной способности при переходе на более новое оборудование.

ewwhite
источник
Я отредактировал свой оригинальный вопрос, чтобы добавить контекст. Числа, которые я выбрал, не были реальными, они просто делали гипотетические вычисления проще. Кроме того, большинство других ваших комментариев попадают в колонку «все при прочих равных». Предположим , что только , что изменение является способность отдельных дисков
JDS
@JDS Смотрите мои изменения выше.
ewwhite
9

Одно место , где находится прямая связь между размером диска и IOPS находится в Amazon AWS Cloud и других «облачных услуг». Два типа сервисов AWS ( Elastic Block Store и Relational Database Service ) обеспечивают более высокие IOPS для дисков большего размера.

Обратите внимание, что это искусственное ограничение, накладываемое Amazon на свои услуги. Для этого не существует какой-либо аппаратной причины. Тем не менее, я видел devops-типы, которые не знакомы с не виртуализированным оборудованием, полагая, что это ограничение подходит и для настольных систем и тому подобного. Отношение размера диска к IOPS - это ограничение облачного маркетинга, а не ограничение оборудования.

dotancohen
источник
1
Неплохо подмечено. Мы смотрим на производительность SLA для обеспечения производительности и емкости для клиентов. И мы рассматриваем использование многоуровневой модели «iops per terabyte» - идея заключается в том, что мы можем использовать ее для информирования наших циклов обновления - при покупке SSD, если соотношение IOP: TB высокое, и SATA, если оно низкое. Не из-за каких-либо ограничений или ограничений массива, а потому, что нам нужно получить контроль над моделями затрат и тарифов.
Sobrique
2
Интересный. Я не думал о облачном контексте здесь. Я думаю , что показывает перспективу я происхожу из ...
ewwhite
4

Я должен отметить, что IOPS не является хорошим измерением скорости при последовательной записи, но давайте просто с этим.

Я подозреваю, что время поиска и записи головок дисков довольно стабильно, несмотря на размер дисков. 20 лет назад мы все используем диски 60 ГБ с (примерно - конечно, не линейно) одинаковыми скоростями чтения / записи.

Я делаю обоснованное предположение, но я не думаю, что плотность диска линейно связана с производительностью диска.

Например, возьмите массив с дисками 10 X 100 ГБ.

Измерение IOPS для последовательных записей блока 256 КБ (или любой метрики IOPS)

Давайте предположим, что полученный измеренный IOPS равен 1000 IOPS.

Ok

Измените массив на один с 10 X 200 ГБ дисков. Форматирование с одинаковой конфигурацией RAID, одинаковым размером блока и т. Д.

Можно ли ожидать, что IOPS останется таким же, увеличится или уменьшится?

Вероятно, остаются примерно эквивалентными друг другу.

Будет ли изменение примерно линейным?

История вращающихся СМИ говорит мне, что, вероятно, нет никаких отношений.

Повторите эти вопросы с 10 X 50GB дисков

Опять же примерно эквивалентно.

Ваша скорость во всех этих случаях объясняется тем, что RAID работает как один диск с десятью головками записи, поэтому вы можете отправлять 1/10 работы параллельно каждому диску.

Хотя у меня нет точных цифр, чтобы показать вам, мой прошлый опыт говорит мне, что увеличить производительность ваших дисков не так просто, как получить больше емкости.

Несмотря на то, что маркетологи говорят вам, что это инновация, до запуска дешевых (э) твердотельных дисков в течение 20 лет не наблюдалось значительных изменений в производительности прядильных носителей, вероятно, только столько, сколько вы можете избавиться от ржавчины. и только так быстро мы сможем запустить наши текущие модели головок дисков.

Мэтью Ифе
источник
Там может быть некоторое улучшение из-за увеличения жестких дисков в приводе или увеличения плотности диска (меньше движения на байт), но я сомневаюсь, что он огромен.
Билл Вайс
Я ожидаю, что вы получаете в плотности, за которую вы платите в точности.
Мэтью Ифе
у вас было 60 ГБ дисков в 1994 году !?
Уоррен
3

Производительность добавляется к шкале памяти с каждым добавленным шпинделем. Скорость вращения накопителя является самым важным фактором, поэтому добавление накопителя со скоростью вращения 10 тыс. Об / мин даст большую производительность (в единицах ввода-вывода при случайном вводе-выводе или МБ / с при потоковом вводе-выводе), чем при скорости вращения диска 7,2 тыс. Размер диска практически не влияет.

Люди говорят, что маленькие диски работают быстрее просто потому, что вам требуется больше шпинделей на один пригодный для использования ТБ. Увеличение размера дисков этих шпинделей не приведет к снижению производительности, но позволит разместить больше данных на дисках, что может привести к увеличению рабочей нагрузки.

Бэзил
источник
2

Если предположить, что все остальное одинаково, характеристики производительности дисков большей емкости не сильно изменятся. Привод FC 10K RPM имеет очень похожие характеристики независимо от того, 300 ГБ или 3 ТБ. Пластины вращаются с одинаковой скоростью, а головки стремятся с одинаковой скоростью.

Постоянная пропускная способность также - не большая разница. Это корень многих проблем с производительностью, хотя, как и во многих случаях, люди покупают терабайты, они не покупают IOP или МБ / с.

И потребуется 10 раз больше, чтобы восстановить / скопировать диск объемом 3 ТБ, как диск объемом 300 ГБ.

В результате нам пришлось взглянуть на существенную избыточную емкость для проектов хранения данных - размеры дисков по-прежнему растут, но их производительность невелика. Поэтому, по крайней мере, в одном случае мы купили ~ 400 ТБ хранилища, чтобы удовлетворить требования в 100 ТБ, потому что нам нужны шпиндели.

Sobrique
источник
0

Если вы вращаете диски (не SSD), то при прочих равных скорость передачи выше, если вы используете внешние дорожки диска. Это произойдет автоматически, если вы используете диск, который заполнен только частично. В то же время, если диск заполнен только частично, ваше среднее движение головы будет меньше, а количество движений головы будет меньше, потому что данных на дорожку больше.

Это правда, используете ли вы один диск или диск RAID.

Теперь, если вы сравниваете диски объемом 100 и 2000 ГБ, вы можете быть уверены, что все остальное не равно. Но если один и тот же производитель предлагает диски емкостью 500 ГБ, 1 ТБ, 1,5 ТБ и 2 ТБ с одним, двумя, тремя и четырьмя пластинами, то все остальное, вероятно, будет одинаковым, и 10 x 500 ГБ будет медленнее, чем 10 x 2 ТБ, чтобы хранить 4 ТБ данных. (не будет разницы, если вы сохраните только 100 ГБ, потому что диски на 500 ГБ также будут почти пустыми).

Но для дисков RAID вы будете не столько ограничены скоростью передачи, сколько задержкой вращения. Так что более высокие обороты будут более важными. И вы часто будете находить более высокие обороты вместе с меньшей пропускной способностью. С другой стороны, если вы используете высокие обороты в минуту и ​​малую емкость, вы также можете взглянуть на SSD-накопители.

gnasher729
источник