Ужасная производительность синхронизации DRBD на 10GigE

15

Я установил пару идентичных серверов с RAID-массивами (8 ядер, 16 ГБ ОЗУ, 12x2 ТБ RAID6), 3 интерфейса 10GigE для размещения некоторых высокодоступных сервисов.

В настоящее время в системах установлен Debian 7.9 Wheezy oldstable (так как corosync / pacemaker недоступны в 8.x стабильной и не тестируемой).

  • Производительность локального диска составляет около 900 МБ / с при записи, 1600 МБ / с при чтении.
  • пропускная способность сети между машинами превышает 700 МБ / с.
  • через iSCSI каждая машина может записывать в хранилище другой со скоростью более 700 МБ / с.

Тем не менее, независимо от способа настройки DRBD, пропускная способность ограничена 100 МБ / с. Это действительно похоже на жестко заданный предел. Я могу надежно снизить производительность путем настройки параметров, но она никогда не превышает 1 Гбит (122 МБ / с достигается за пару секунд за раз). Я действительно тяну свои волосы на этом.

  • обычное ванильное ядро ​​3.18.24 amd64
  • drbd 8.9.2 ~ rc1-1 ~ bpo70 + 1

Конфигурация разделена на два файла global-common.conf:

global {
        usage-count no;
}

common {
        handlers {
        }

        startup {
        }

        disk {
                on-io-error             detach;
         #       no-disk-flushes ;
        }
        net {
                max-epoch-size          8192;
                max-buffers             8192;
                sndbuf-size             2097152;
        }
        syncer {
                rate                    4194304k;
                al-extents              6433;
        }
}

и cluster.res:

resource rd0 {
        protocol C;
        on cl1 {
                device /dev/drbd0;
                disk /dev/sda4;
                address 192.168.42.1:7788;
                meta-disk internal;
        }

        on cl2 {
                device /dev/drbd0;
                disk /dev/sda4;
                address 192.168.42.2:7788;
                meta-disk internal;
        }
}

Выход от cat /proc/drbdна раб:

version: 8.4.5 (api:1/proto:86-101)
srcversion: EDE19BAA3D4D4A0BEFD8CDE 
 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:4462592 dw:4462592 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:16489499884
        [>....................] sync'ed:  0.1% (16103024/16107384)M
        finish: 49:20:03 speed: 92,828 (92,968) want: 102,400 K/sec

Вывод vmstat 2на мастер (обе машины почти полностью простаивают):

procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa
 0  0      0 14952768 108712 446108    0    0   213   254   16    9  0  0 100  0
 0  0      0 14952484 108712 446136    0    0     0     4 10063 1361  0  0 99  0
 0  0      0 14952608 108712 446136    0    0     0     4 10057 1356  0  0 99  0
 0  0      0 14952608 108720 446128    0    0     0    10 10063 1352  0  1 99  0
 0  0      0 14951616 108720 446136    0    0     0     6 10175 1417  0  1 99  0
 0  0      0 14951748 108720 446136    0    0     0     4 10172 1426  0  1 99  0

Вывод iperfмежду двумя серверами:

------------------------------------------------------------
Client connecting to cl2, TCP port 5001
TCP window size:  325 KByte (default)
------------------------------------------------------------
[  3] local 192.168.42.1 port 47900 connected with 192.168.42.2 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  6.87 GBytes  5.90 Gbits/sec

Очевидно, что начальная синхронизация должна быть несколько медленной, но не такой медленной ... Более того, она не реагирует ни на одну из попыток регулирования скорости синхронизации drbdadm disk-options --resync-rate=800M all.

wazoox
источник
1
Вы пытались построить его асинхронно, затем остановить и восстановить синхронизацию снова?
Ксавье Николетт

Ответы:

11

В более новых версиях DRBD (8.3.9 и новее) имеется контроллер динамической повторной синхронизации, который требует настройки. В более старых версиях DRBD установки syncer {rate;}было достаточно; теперь он используется скорее как слегка рекомендуемая отправная точка для скорости динамической повторной синхронизации.

Контроллер динамической синхронизации настраивается с помощью «c-settings» в разделе диска конфигурации DRBD (см. $ man drbd.confПодробности по каждой из этих настроек).

При 10Gbe между этими узлами и минимальной задержке, поскольку используется протокол C, следующая конфигурация должна ускорить процесс:

ресурс rd0 {
        протокол С;
        диск {
                c-fill-target 10M;
                максимальная скорость c 700M;
                c-план на будущее 7;
                c-min-rate 4M;
        }
        на cl1 {
                устройство / dev / drbd0;
                диск / dev / sda4;
                адрес 192.168.42.1:7788;
                метадиск внутренний;
        }

        на cl2 {
                устройство / dev / drbd0;
                диск / dev / sda4;
                адрес 192.168.42.2:7788;
                метадиск внутренний;
        }
}

Если вы все еще не счастливы, попробуйте max-buffersувеличить до 12 КБ. Если вы все еще не счастливы, вы можете попробовать прибавить c-fill-target2M.

Мэтт Керецман
источник
На самом деле при такой конфигурации производительность падает до 3 МБ / с. Я пытаюсь поиграть с этими настройками, но перспективы мрачны.
wazoox
Пока что отключение c-plan-forward путем установки его в ноль и увеличения max-epoch-size и max-buffers, похоже, помогает.
wazoox
2
Что произойдет, если вы увеличите max-buffers до 20k, а c-fill-target - до 20M? Я считаю, что постепенное увеличение этих двух значений в конечном итоге даст вам результаты, которые вы ищете.
Мэтт Керецман
Это гораздо лучше! Это не насыщает ссылку (которая выделена, и хотя это нормально, чтобы заполнить), но я уже на 400 МБ / с. Я немного играю с этими настройками ...
wazoox
1
Увеличение макс-буферов с 250 до 2500 имело для меня значение ночное и дневное время (в моей некритической настройке производительности)
davidgo
7

Кто-то в другом месте предложил мне использовать эти настройки:

        disk {
                on-io-error             detach;
                c-plan-ahead 0;
        }
        net {
                max-epoch-size          20000;
                max-buffers             131072;
        }

И производительность отличная.

Редактировать: Согласно @Matt Kereczman и другим предложениям, я наконец-то изменился на это:

disk {
        on-io-error             detach;
        no-disk-flushes ;
        no-disk-barrier;
        c-plan-ahead 0;
        c-fill-target 24M;
        c-min-rate 80M;
        c-max-rate 720M;
} 
net {
        # max-epoch-size          20000;
        max-buffers             36k;
        sndbuf-size            1024k ;
        rcvbuf-size            2048k;
}

Скорость повторной синхронизации высокая:

cat /proc/drbd
version: 8.4.5 (api:1/proto:86-101)
srcversion: EDE19BAA3D4D4A0BEFD8CDE
 0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r---n-
    ns:133246146 nr:0 dw:2087494 dr:131187797 al:530 bm:0 lo:0 pe:5 ua:106 ap:0 ep:1 wo:d oos:4602377004
        [>....................] sync'ed:  2.8% (4494508/4622592)M
        finish: 1:52:27 speed: 682,064 (646,096) K/sec

Скорость записи отличная во время повторной синхронизации с этими настройками (80% локальной скорости записи, полная скорость передачи данных):

# dd if=/dev/zero of=./testdd bs=1M count=20k
20480+0 enregistrements lus
20480+0 enregistrements écrits
21474836480 octets (21 GB) copiés, 29,3731 s, 731 MB/s

Скорость чтения в порядке:

# dd if=testdd bs=1M count=20k of=/dev/null
20480+0 enregistrements lus
20480+0 enregistrements écrits
21474836480 octets (21 GB) copiés, 29,4538 s, 729 MB/s

Позже отредактируйте:

После полной повторной синхронизации производительность очень хорошая (скорость записи по проводам, скорость чтения по локальной сети). Повторная синхронизация выполняется быстро (5/6 часов) и не сильно снижает производительность (считывание скорости передачи, запись скорости передачи). Я определенно останусь с c-plan-forward на нуле. При ненулевых значениях повторная синхронизация слишком длинная.

wazoox
источник
Увеличение max-буферов до 131K не самый изящный подход к решению вашей проблемы. По сути, вы предоставляете DRBD 512 МБ системных буферов для повторной синхронизации, что занимает много места в буфере. Я видел, как что-то происходит с максимальными буферами размером более 80 КБ. Я настоятельно рекомендую настроить параметры контроллера повторной синхронизации, увеличивая максимальные буферы с небольшими приращениями, пока вы не будете довольны.
Мэтт Керецман
@MattKereczman Я изменю настройки, но я бы хотел иметь оптимальный (синхронизированный) кластер как можно быстрее, прежде чем играть с настройками производства .... Настройки по умолчанию означают, что синхронизация занимает не менее нескольких дней и более до нескольких недель это просто не приемлемо. Требуемая пропускная способность составляет 500 МБ / с.
wazoox
4

c-plan-forward должен установить положительное значение, чтобы включить динамический контроллер скорости синхронизации. диск c-plan-ahead 15; // 5 * RTT / 0.1s unit,in my case is 15 c-fill-target 24; c-max-rate 720M;

Keven
источник