Измерение и оценка скорости и задержки доступа к файлам на смонтированном общем ресурсе NFS

19

У меня есть система Linux Centos, которая монтирует некоторые общие ресурсы NFS. Какой метод я могу использовать для измерения скорости / задержки / скорости ввода-вывода при чтении и записи файлов с этого общего ресурса? Может ли эта методика также применяться к локальному жесткому диску для сравнения?

Марк Теуниссен
источник

Ответы:

28

какую технику можно использовать для измерения скорости ввода / вывода / задержки / скорости при чтении и записи файлов из этого общего ресурса?

Вы можете использовать ddдля этого:

# time dd if=/dev/zero of=/mnt/nfs/testfile bs=16k count=128k
131072+0 records in
131072+0 records out
2147483648 bytes (2.1 GB) copied, 111.656 seconds, 19.2 MB/s

real    1m51.678s
user    0m0.066s
sys 0m1.482s

# time dd if=/mnt/nfs/testfile of=/dev/null bs=16k
131072+0 records in
131072+0 records out
2147483648 bytes (2.1 GB) copied, 4.96762 seconds, 432 MB/s

real    0m4.969s
user    0m0.046s
sys 0m0.720s

(Размер файла = bs * countдолжен быть в два раза больше оперативной памяти)

или взгляните на некоторые инструменты тестирования: Bonnie ++ , IOzone , например:

# bonnie++ -d /mnt/nfs/bonnie/ -s 2048 -r 1024 -u 0
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
svr201NTC-647.lo 2G  1473  96 46620   3 48033   4  1785  99 3525478 100 +++++ +++
Latency              8647us      86us     268us    5064us      66us   23566us
Version  1.96       ------Sequential Create------ --------Random Create--------
svr201NTC-647.local -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   580   2  5742  13   429   2   423   1  7540  12   392   1
Latency               244ms   22747us    4549ms    3849ms    1641us     999ms
1.96,1.96,svr201NTC-647.localdomain,1,1319514624,2G,,1473,96,46620,3,48033,4,1785,99,3525478,100,+++++,+++,16,,,,,580,2,5742,13,429,2,423,1,7540,12,392,1,8647us,86us,268us,5064us,66us,23566us,244ms,22747us,4549ms,3849ms,1641us,999ms

# iozone -aRcU /mnt/nfs/ -f /mnt/nfs/testfile > logfile

Более подробная информация: http://nfs.sourceforge.net/nfs-howto/ar01s05.html

Может ли эта методика также применяться к локальному жесткому диску для сравнения?

Конечно, вы можете использовать его для сравнения локального жесткого диска для сравнения.

кванты
источник
3
Не могли бы вы объяснить, почему размер файла = bs * count должен быть в два раза больше оперативной памяти?
user1031431
-4

Может быть, это может быть полезно: http://www.alfaexploit.com/ficheros_web/leer.php?id=161

В приведенной выше ссылке вы найдете полезный скрипт, генерирующий файлы размером от 1 до 4 Мб, таким образом можно проверить скорость чтения / записи.

Kr0m
источник
Я проголосовал "Выглядит хорошо", потому что он ссылается на внешний сценарий, а не на внешнюю информацию.
Петер - Восстановить Монику
Мертвая ссылка и только для ссылки ответ для начала.
Xan