Означают ли более быстрые сегменты сети более высокую скорость потока или меньшую задержку?

12

Это еще один из тех гипотетических вопросов. Я пытался выяснить, приведет ли более быстрый «сегмент» сети между хостом A и хостом B к более быстрой скорости потока или меньшей задержке между ними. Позвольте мне показать вам физические связи в сети между компьютером A и компьютером B:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

Короче говоря, существует соединение 1G от хоста A к первому коммутатору, в котором есть модуль SFP, подключенный к короткому оптоволоконному каналу 10G / 40G / 100G (на самом деле не имеет значения, просто быстрее 1G), который подключается к другой модуль SFP в другом медном коммутаторе 1G, который подключен через медь 1G к хосту B.

Быстрее ли проходит трафик между двумя хостами из-за оптоволокна, проходящего посередине? Или скорость потока и задержка были бы одинаковыми, если бы секция между двумя коммутаторами была с той же скоростью, что и остальная сеть?

Было бы разумно, чтобы задержка была ниже между хостом A и хостом B, но скорость входа и выхода сетевых адаптеров будет ограничивать скорость потока, правильно? Если это так, имеет ли смысл соединять «основные» коммутаторы и маршрутизаторы вместе с более быстрыми соединениями?

Libbux
источник

Ответы:

13

Ни на самом деле. Замена медного канала на волоконно-оптический канал может незначительно снизить задержку (при условии, что канал не перегружен), но то, что вы действительно получите, когда замените «основной» канал на канал с более высокой пропускной способностью, - это меньше возможных перегрузок. В вашем примере scenerio это не имеет значения, потому что на каждом конце есть только одно устройство. В действующей сети, однако, переход от основных соединений 1g к 10g облегчит проблемы с перегрузкой в ​​ядре сети.

Теперь, как побочный эффект, вы можете получить меньшую задержку и лучший поток трафика, но это происходит исключительно из-за уменьшения перегрузки, чтобы маршрутизаторы / коммутаторы не были перегружены и отбрасывали / ставили в очередь трафик.

Джастин Сибрук-Роча
источник
Таким образом, увеличение скорости ссылок в ядре сети увеличивает пропускную способность, а не скорость.
Libbux
4
В основном да. «Скорость» в сетевом языке - не столько скорость, сколько скорость передачи битов в секунду по каналу. Задержка / RTT обычно зависит от общего расстояния в сочетании с количеством устройств на пути. Каждый прыжок / устройство добавляет небольшую задержку. «Быстрота» в основном зависит от физики и скорости света.
Джастин Сибрук-Роча
Ключевым моментом здесь является то, что все биты движутся с одинаковой скоростью - это действительно то, что мне было интересно.
Libbux
2
Я также упомяну, что все это уходит в окно, когда вы входите в страну финансовой торговли. В этом мире RTT - король. Даже микросекунды RTT имеют значение, что заставляет их совершать всевозможные глупости, например, перемещать рабочую станцию ​​на 100 футов ближе к серверу и сокращать потери волокна.
Джастин Сибрук-Роча
7
В то время как сигнал распространяется с одинаковой скоростью, независимо от того, составляет ли он 100M, 1GE или 10GE, задержка сериализации (время, необходимое для ввода кадра в провод) уменьшается с увеличением скорости. То есть, если вы отправляете кадр на 100M, задержка сериализации для 1538B составляет 0,123 мс, на 1GE этот кадр уже на 21 км ниже по оптоволокну.
ytti
6

Скорость потока данных не имеет значения в физике среды. Под этим я подразумеваю, что для прохождения электрического сигнала с одной стороны 100-метровой медной трассы на другую требуется одинаковое время, независимо от того, является ли этот сигнал частью канала 10 Мбит / с или 1 Гбит / с.

Если вы перейдете с меди на волокно, вы можете заметить небольшое улучшение, но на самом деле это будет лишь незначительная разница.

Теперь, есть и другие факторы, которые могут вступить в игру, например, оборудование, которое может делать 10 Гбит / с, обычно более способно обрабатывать кадры / пакеты, чем оборудование, которое рассчитано на 10 Мбит / с, поэтому задержка, добавляемая оборудованием, может быть уменьшена как Что ж. Но это полностью зависит от возможностей оборудования, а не от скорости соединения.

YLearn
источник
5

В этом случае переход от 1G к ядру 10G не должен существенно ничего менять. Только незначительное увеличение пропускной способности может быть получено из-за более быстрой передачи сигналов (уменьшенного битового времени) на линии 10G +. Но в отсутствие каких-либо перегрузок (читай: другие хосты), они должны были бы начать насыщать ссылку с самого начала.

Время, которое требуется хостам A и B, чтобы сигнализировать (входить и выходить) пакет, не изменяется. Теоретически время, необходимое пакету для перехода от коммутатора к коммутатору, пропорционально быстрее. Однако на этих скоростях разница не заметна для человека. (~ 10 мкс для пакета 1500 мту)

Рики Бим
источник
Скажем, будет ли заметная разница между 100G соединением между коммутаторами?
Libbux
Они уже могут более чем насыщать свою местную связь, так что нет. С помощью чувствительного тестового оборудования вы можете измерить изменение задержки для каждого пакета, но это не заставит работать каналы с одним гигом быстрее. :-) Тем не менее, реальным преимуществом является предотвращение перегрузок, когда существует не только хост A и B, использующий ссылку.
Рикки Бим
0

Поскольку пропускная способность = к размеру окна / RTT, все, что сокращает RTT, увеличит пропускную способность, вопрос в том, стоит ли это того. Чем больше размер окна, тем больше влияние оказывает уменьшение RTT.

fredpbaker
источник
1
с окном 128k, 1G сквозной будет ~ 3.5G / с. со ссылкой 10G посередине это число увеличивается до ~ 5G / s. Вы заметите, что оба числа намного выше скорости соединения хоста, поэтому это не будет заметно вообще.
Рикки Бим
0

По-разному.

В противном случае это зависит от того, являются ли переключающие устройства «сохраненными и переданными» или «прорезанными». Если коммутационные устройства сохраняются и пересылаются, то более быстрые соединения означают меньшую задержку. Однако, если они поддерживают сквозное переключение, то будут добавлены дополнительные задержки, так как невозможно переключиться с более медленного входящего канала на более быстрый исходящий канал. Однако, если вы не играете в мире высокочастотной торговли или чего-то подобного, это может быть незначительным в любом случае.

В практической сети, имеющей большую емкость в ядре, уменьшается вероятность возникновения перегрузки от других пользователей. Перегрузка снижает пропускную способность и задержку. В целом, хорошо, если ссылки на ядро ​​работают быстрее, чем ссылки на конечных пользователей, поэтому никто из конечных пользователей не может насытить их (поэтому, если вы используете гигабитную систему для настольного компьютера, вам, вероятно, следует использовать 10-гигабитное ядро).

Питер Грин
источник