У меня есть два сервера Dell R515 под управлением CentOS 6.5, с одним из сетевых адаптеров Broadcom в каждом, напрямую подключенным к другому. Я использую прямую ссылку для передачи резервных копий с основного сервера в паре на вторичный сервер каждую ночь, используя rsync через ssh. Наблюдая за трафиком, я вижу пропускную способность ~ 2 Мбит / с, что намного меньше, чем я ожидаю от гигабитного порта. Я установил MTU на 9000 с обеих сторон, но это ничего не изменило.
Есть ли рекомендуемый набор настроек и оптимизаций, которые позволили бы мне достичь максимальной доступной пропускной способности? Более того, поскольку я использую rsync поверх ssh (или, возможно, просто NFS) для копирования миллионов файлов (~ 6 ТБ небольших файлов - огромный почтовый магазин Zimbra), оптимизация, которую я ищу, может быть более специфичной для моего конкретного случая использования. ,
Я использую ext4 с обеих сторон, если это имеет значение
Благодарность
РЕДАКТИРОВАТЬ: я использовал следующие rsync
параметры с довольно похожими результатами:
rsync -rtvu --delete source_folder/ destination_folder/
rsync -avHK --delete --backup --backup-dir=$BACKUPDIR source_folder/ destination_folder/
В настоящее время я наблюдаю тот же уровень плохой производительности при использовании cp
экспорта NFS по той же прямой кабельной линии связи.
РЕДАКТИРОВАТЬ 2: после завершения синхронизации я смог запустить iperf
и обнаружил, что производительность была около 990 Мбит / с, медлительность была вызвана фактическим использованием набора данных.
источник
iperf
.Ответы:
Количество файлов и издержки шифрования SSH, вероятно, являются самыми большими барьерами. Вы не увидите скорость передачи на такой передаче.
Варианты для улучшения включают в себя:
-e "ssh -c arcfour"
)dd
, отправка / получение снимков ZFS и т. Д.tar
netcat (nc
), mbuffer или некоторую комбинацию.tuned-adm
настройки CentOS .rsync
команды. Будет ли-W
здесь полезен вариант с целыми файлами? Сжатие включено?источник
iperf
чтобы быть уверенным.rsync
а не кем-тоcp
. Я виделrsync
взять гораздо больше времени , чтобы обновить удаленное дерево каталогов первоначально созданноеcp
: 88GB обновляется с контрольной суммой в 1h26m вместо 3 часов! То, как вы создаете начальную структуру диска, имеет решающее значение для получения хорошей производительности обновления. Время процессора одинаковое; реальное время может удвоиться. (То же самое обновление без контрольной суммы выполняется за 13 минут от SSD до 200 ГБ Seagate).Как вы, наверное, знаете, копирование большого количества маленьких файлов (например, почтовых ящиков в формате MailDir или аналогичных) определенно не лучший вариант, чтобы использовать преимущества интерфейсов с высокой пропускной способностью. SSH, вероятно, не лучший транспортный протокол для этого. Я бы попробовал использовать tar для создания архива на исходном хосте, прежде чем отправить его на ваш вторичный хост.
Если вам нужно инкрементное резервное копирование, вы можете попробовать
-g
опции tar. Если вам все еще нужно увеличить throuput, попробуйте использовать netcat вместо ssh.источник
dd
через негоnc
. но прямо сейчас я застрял с двумя огромными резервными копиями, после чего мне нужно было перенести их с основного хоста, чтобы я мог создать там систему LVMПопытайтесь дразнить обособленные факторы:
и тестировать их самостоятельно.
У меня были некоторые неудачные опыты с драйверами Broadcom, поэтому мое первое предложение состоит в том, чтобы проверить полезную пропускную способность сети с:
dd if=/dev/zero bs=1m count=10k | rsh backup_host cat \> /dev/null
источник