Как я могу определить, заполнен ли буфер канала?

11

Я передаю вывод из одной программы в какой-то Perl, который я написал. Это длительный процесс, иногда дни, поэтому я хочу выяснить, где мои узкие места, и попытаться их устранить. Я хочу знать, передаются ли данные в мой сценарий быстрее, чем мой сценарий может их обработать. Если это так, я постараюсь настроить свой сценарий, но не тогда, когда мне это не нужно. Я вижу разговоры о том, что флаг устанавливается, когда буфер заполнен, что предотвращает дальнейшую запись в него, но как мне проверить, установлен ли или как часто этот флаг? Есть идеи?

Дэн Сфар
источник
3
Я думаю, что только процесс письма мог знать.
энзотиб
5
Вы могли бы изучить использование pvгде-нибудь вдоль цепи трубы.
амфетахин

Ответы:

9

Я бы проследил ваш сценарий Perl с помощью инструмента трассировки системных вызовов: strace(Linux), dtruss(OS X), ktrace(FreeBSD), truss(Solaris) и т. Д. Цель состоит в том, чтобы узнать, сколько времени ваш сценарий Perl ожидает в ожидании чтения из своего stdin и сколько времени другая программа тратит на запись в свой стандартный вывод.

Здесь я проверяю это с писателем как узким местом:

terminal 1$ gzip -c < /dev/urandom | cat > /dev/null

terminal 2$ ps auxw | egrep 'gzip|cat'
slamb    25311 96.0  0.0  2852  516 pts/0    R+   23:35   3:40 gzip -c
slamb    25312  0.8  0.0  2624  336 pts/0    S+   23:35   0:01 cat

terminal 2$ strace -p 25312 -s 0 -rT -e trace=read
Process 25312 attached - interrupt to quit
     0.000000 read(0, ""..., 4096) = 4096 <0.005207>
     0.005531 read(0, ""..., 4096) = 4096 <0.000051>

Первое число здесь - это время с начала предыдущего системного вызова, а последнее число - время, проведенное в системном вызове. Таким образом, мы можем немного постобработать с Perl, чтобы агрегировать его ... [*]

terminal 2$ strace -p 25312 -s 0 -rT -e trace=read 2>&1 | perl -nle 'm{^\s*([\d.]+) read\(0, .*<([\d.]+)>} or next; $total_work += $1 - $last_wait; $total_wait += $2; $last_wait = $2; print "working for $total_work sec, waiting for $total_wait sec"; $last_wait = $2;'
working for 0 sec, waiting for 0.005592 sec
...
working for 0.305356 sec, waiting for 2.28624900000002 sec
...

terminal 2$ strace -p 25311 -s 0 -rT -e trace=write 2>&1 | perl -nle 'm{^\s*([\d.]+) write\(1, .*<([\d.]+)>} or next; $total_work += $1 - $last_wait; $total_wait += $2; $last_wait = $2; print "working for $total_work sec, waiting for $total_wait sec"; $last_wait = $2;'
...
working for 5.15862000000001 sec, waiting for 0.0555740000000007 sec
...

Вы можете пойти дальше и создать скрипт SystemTap или DTrace, который отслеживает обе стороны одновременно, отслеживает только правильный дескриптор файла и печатает хорошее обновление состояния каждую секунду или около того, с каким процентом времени каждый ждал другого.

[*] - Предупреждение: моя грубая агрегация не совсем верна, если чтение / запись вызывается для других файловых дескрипторов; это будет недооценивать рабочее время в этом случае.


Версия dtrace на самом деле довольно аккуратная.

terminal 1$ gzip -c < /dev/urandom | cat > /dev/null

terminal 2$ ps aux | egrep 'gzip| cat'
slamb    54189  95.8  0.0   591796    584 s006  R+   12:49AM  22:49.55 gzip -c
slamb    54190   0.4  0.0   599828    392 s006  S+   12:49AM   0:06.08 cat

terminal 2$ cat > pipe.d <<'EOF'
#!/usr/sbin/dtrace -qs

BEGIN
{
  start = timestamp;
  writer_blocked = 0;
  reader_blocked = 0;
}

tick-1s, END
{
  this->elapsed = timestamp - start;
  printf("since startup, writer blocked %3d%% of time, reader %3d%% of time\n",
         100 * writer_blocked / this->elapsed,
         100 * reader_blocked / this->elapsed);
}

syscall::write:entry
/pid == $1 && arg0 == 1/
{
  self->entry = timestamp;
}

syscall::write:return
/pid == $1 && self->entry != 0/
{
  writer_blocked += timestamp - self->entry;
  self->entry = 0;
}

syscall::read:entry
/pid == $2 && arg0 == 0/
{
  self->entry = timestamp;
}

syscall::read:return
/pid == $2 && self->entry != 0/
{
  reader_blocked += timestamp - self->entry;
  self->entry = 0;
}
EOF

terminal 2$ chmod u+x pipe.d
terminal 2$ sudo ./pipe.d 54189 54190
since startup, writer blocked   0% of time, reader  98% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
^C
since startup, writer blocked   0% of time, reader  99% of time

И версия SystemTap:

terminal 1$ gzip -c /dev/urandom | cat > /dev/null

terminal 2$ ps auxw | egrep 'gzip| cat'
slamb     3405  109  0.0   4356   584 pts/1    R+   02:57   0:04 gzip -c /dev/urandom
slamb     3406  0.2  0.0  10848   588 pts/1    S+   02:57   0:00 cat

terminal 2$ cat > probes.stp <<'EOF'
#!/usr/bin/env stap

global start
global writer_pid
global writes
global reader_pid
global reads

probe begin {
  start = gettimeofday_us()
  writer_pid = strtol(argv[1], 10)
  reader_pid = strtol(argv[2], 10)
}

probe timer.s(1), end {
  elapsed = gettimeofday_us() - start
  printf("since startup, writer blocked %3d%% of time, reader %3d%% of time\n",
         100 * @sum(writes) / elapsed,
         100 * @sum(reads) / elapsed)
}

probe syscall.write.return {
  if (pid() == writer_pid && $fd == 1)
    writes <<< gettimeofday_us() - @entry(gettimeofday_us())
}

probe syscall.read.return {
  if (pid() == reader_pid && $fd == 0)
    reads <<< gettimeofday_us() - @entry(gettimeofday_us())
}
EOF

terminal 2$ chmod a+x probes.stp
terminal 2$ sudo ./pipe.stp 3405 3406
since startup, writer blocked   0% of time, reader  99% of time
...
Скотт Лэмб
источник
6

Вы можете вставить pv -TCкоманду в свою конвейерную линию:

cmd1 | pv -TC | cmd2

pvиспользует свой собственный буфер и -Tзаставляет его сообщать, насколько он заполнен в среднем за 1 секунду (по умолчанию).

Если это всегда 100%, то это означает, что cmd1при производстве продукции быстрее, чем cmd2при потреблении. Если нет, то все наоборот. Остерегайтесь, что сами трубы могут держать 64 КБ.

Смотрите также, -Bчтобы указать pvразмер буфера. Вы можете использовать несколько pvs как в:

$ cmd1 | pv -cCTrbN 'cmd1 -> cmd2' | cmd2 | pv -cCTrbN 'cmd2 -> cmd3' | cmd3
cmd1 -> cmd2: 1.92GiB { 53%} [ 387MiB/s]
cmd2 -> cmd3: 1.92GiB {  0%} [ 387MiB/s]
Стефан Шазелас
источник