Openvpn, пересылка пакетов очень медленно

10

Я перезагрузил свой сервер, и только что вышла странная проблема. Я работаю на ArchLinux, клиенты Ubuntu, Android и Mac.

Проблема в том, что доступ в интернет через клиентов медленный, около 2ko / s и медленно останавливается.

Но загрузка чего-либо с сервера на клиент напрямую производится на полной скорости. И, очевидно, интернет с сервера работает на полной скорости (40 м / с).

Я не знаю, что произошло после перезагрузки, но эта проблема присутствует на всех клиентах и ​​связана только с трафиком, который openvpn перенаправляет в Интернет.

РЕДАКТИРОВАТЬ: Пробовал с tcp, не решил. РЕДАКТИРОВАТЬ: Протестированы различные настройки фрагмента / MTU, без изменений.

Вот все мои признания:

╭─<root@Alduin>-</etc/openvpn>-<1:45:07>-◇
╰─➤ cat Alduin.conf ccd/Thunderaan
local 212.83.129.104
port 1194
proto udp
dev tun
ca keys/ca.crt
cert keys/Alduin.crt
key keys/Alduin.key
dh keys/dh1024.pem
server 10.8.0.0 255.255.255.0
ifconfig-pool-persist ipp.txt
push "dhcp-option DNS 10.8.0.1"
client-to-client
keepalive 5 60
ping-timer-rem
comp-lzo
persist-key
persist-tun
status openvpn-status.log
verb 3
client-config-dir ccd
topology subnet

ccd from here +++++++++++++++


ifconfig-push 10.8.0.2 255.255.255.0
push "redirect-gateway def1"

Клиентский конф:

client
dev tun
proto udp
remote 212.83.129.104 1194
resolv-retry infinite
nobind
persist-key
persist-tun
ca ca.crt
cert name.crt
key name.key
ns-cert-type server
comp-lzo
verb 3

и некоторые результаты, которые могут вам помочь:

╭─<cubox@Alduin>-<~>-<1:49:43>-◇
╰─➤ ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether b8:ac:6f:94:e2:4e brd ff:ff:ff:ff:ff:ff
    inet 88.190.15.135/24 scope global eno1
       valid_lft forever preferred_lft forever
    inet 212.83.129.104/32 scope global eno1
       valid_lft forever preferred_lft forever
    inet6 2001:bc8:300a:dead::b12d/64 scope global
       valid_lft forever preferred_lft forever
    inet6 2a01:e0b:1000:15:baac:6fff:fe94:e24e/64 scope global dynamic
       valid_lft 2592000sec preferred_lft 604800sec
    inet6 fe80::baac:6fff:fe94:e24e/64 scope link
       valid_lft forever preferred_lft forever
3: eno2: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN qlen 1000
    link/ether b8:ac:6f:94:e2:4f brd ff:ff:ff:ff:ff:ff
6: tun0: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN qlen 100
    link/none
    inet 10.8.0.1/24 brd 10.8.0.255 scope global tun0
       valid_lft forever preferred_lft forever
╭─<cubox@Alduin>-<~>-<1:49:47>-◇
╰─➤ route
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
default         88-190-15-1.rev 0.0.0.0         UG    0      0        0 eno1
10.8.0.0        *               255.255.255.0   U     0      0        0 tun0
88.190.15.0     *               255.255.255.0   U     0      0        0 eno1
╭─<cubox@Alduin>-<~>-<1:49:51>-◇
╰─➤ route -6
Kernel IPv6 routing table
Destination                    Next Hop                   Flag Met Ref Use If
::1/128                        ::                         U    256 0     0 lo
2001:bc8:300a:dead::/64        ::                         U    256 0     0 eno1
2a01:e0b:1000:15::/64          ::                         UAe  256 0     0 eno1
fe80::/64                      ::                         U    256 0     0 eno1
::/0                           fe80::225:45ff:fef6:947f   UGDAe 1024 2     0 eno1
::/0                           ::                         !n   -1  1  1891 lo
::1/128                        ::                         Un   0   2  5227 lo
2001:bc8:300a:dead::/128       ::                         Un   0   1     0 lo
2001:bc8:300a:dead::b12d/128   ::                         Un   0   1   131 lo
2a01:e0b:1000:15::/128         ::                         Un   0   1     0 lo
2a01:e0b:1000:15:baac:6fff:fe94:e24e/128 ::                         Un   0   3 29356 lo
fe80::/128                     ::                         Un   0   1     0 lo
fe80::baac:6fff:fe94:e24e/128  ::                         Un   0   1   311 lo
ff00::/8                       ::                         U    256 0     0 eno1
::/0                           ::                         !n   -1  1  1891 lo



-A POSTROUTING -s 10.8.0.0/24 -o eno1 -j MASQUERADE # The iptables rule

Правило iptables здесь единственное, что активно на сервере.

╰─➤ tc qd
qdisc mq 0: dev eno1 root
qdisc pfifo_fast 0: dev tun0 root refcnt 2 bands 3 priomap  1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1

РЕДАКТИРОВАТЬ: Вот журнал подключения клиента Archlinux.

Oct  2 16:54:17 Groat ovpn-openvpn[9216]: OpenVPN 2.2.1 x86_64-linux-gnu [SSL] [LZO2] [EPOLL] [PKCS11] [eurephia] [MH] [PF_INET6] [IPv6 payload 20110424-2 (2.2RC2)] built on Feb 13 2013
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: NOTE: the current --script-security setting may allow this configuration to call user-defined scripts
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: LZO compression initialized
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: Control Channel MTU parms [ L:1542 D:138 EF:38 EB:0 ET:0 EL:0 ]
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: Socket Buffers: R=[212992->131072] S=[212992->131072]
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: Data Channel MTU parms [ L:1542 D:1450 EF:42 EB:135 ET:0 EL:0 AF:3/1 ]
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: Local Options hash (VER=V4): '41690919'
Oct  2 16:54:17 Groat ovpn-openvpn[9216]: Expected Remote Options hash (VER=V4): '530fdded'
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: UDPv4 link local: [undef]
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: UDPv4 link remote: [AF_INET]212.83.129.104:1194
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: TLS: Initial packet from [AF_INET]212.83.129.104:1194, sid=edfcb034 3452d72c
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: VERIFY OK: depth=1, /C=FR/ST=FR/L=Paris/O=Dragonborn/CN=Dragonborn_CA/emailAddress=cubox@cubox.me
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: VERIFY OK: nsCertType=SERVER
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: VERIFY OK: depth=0, /C=FR/ST=FR/L=Paris/O=Dragonborn/CN=Dragonborn/emailAddress=cubox@cubox.me
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: Data Channel Encrypt: Cipher 'BF-CBC' initialized with 128 bit key
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: Data Channel Encrypt: Using 160 bit message hash 'SHA1' for HMAC authentication
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: Data Channel Decrypt: Cipher 'BF-CBC' initialized with 128 bit key
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: Data Channel Decrypt: Using 160 bit message hash 'SHA1' for HMAC authentication
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: Control Channel: TLSv1, cipher TLSv1/SSLv3 DHE-RSA-AES256-SHA, 1024 bit RSA
Oct  2 16:54:17 Groat ovpn-openvpn[9217]: [Dragonborn] Peer Connection Initiated with [AF_INET]212.83.129.104:1194
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: SENT CONTROL [Dragonborn]: 'PUSH_REQUEST' (status=1)
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: PUSH: Received control message: 'PUSH_REPLY,dhcp-option DNS 10.8.0.1,route 212.83.129.0 255.255.255.0,route-gateway 10.8.0.1,topology subnet,ping 5,ping-restart 60,redirect-gateway def1,ifconfig 10.8.0.3 255.255.255.0'
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: OPTIONS IMPORT: timers and/or timeouts modified
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: OPTIONS IMPORT: --ifconfig/up options modified
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: OPTIONS IMPORT: route options modified
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: OPTIONS IMPORT: route-related options modified
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: OPTIONS IMPORT: --ip-win32 and/or --dhcp-option options modified
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: ROUTE default_gateway=192.168.1.254
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: TUN/TAP device tun0 opened
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: TUN/TAP TX queue length set to 100
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: do_ifconfig, tt->ipv6=0, tt->did_ifconfig_ipv6_setup=0
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: /sbin/ifconfig tun0 10.8.0.3 netmask 255.255.255.0 mtu 1500 broadcast 10.8.0.255
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: /sbin/route add -net 212.83.129.104 netmask 255.255.255.255 gw 192.168.1.254
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: /sbin/route add -net 0.0.0.0 netmask 128.0.0.0 gw 10.8.0.1
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: /sbin/route add -net 128.0.0.0 netmask 128.0.0.0 gw 10.8.0.1
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: /sbin/route add -net 212.83.129.0 netmask 255.255.255.0 gw 10.8.0.1
Oct  2 16:54:20 Groat ovpn-openvpn[9217]: Initialization Sequence Completed

РЕДАКТИРОВАТЬ: Вот tcpdump сервера, загружающего непосредственно файл: http://sprunge.us/aaJX Вот клиент, загружающий этот ресурс: http://sprunge.us/WUCC, а вот обычный клиент из другого openvpn ( рабочий) сервер: http://www4.slashusr.com/57552.tcpdump

РЕДАКТИРОВАТЬ: Как спросили в комментариях, вот сырые снимки tcpdump. Захват tun0 с сервера не удался, я не знаю почему. Сервер показывает снаружи здесь , клиент показывает tun0 здесь , клиент показывает снаружи здесь и сервер загружает непосредственно файл здесь .

РЕДАКТИРОВАТЬ: сервер работает на i3, который не используется в любое время (даже во время использования openvpn). То же самое для клиента, i7 полностью простаивает.

РЕДАКТИРОВАТЬ: проблема все еще здесь. Пожалуйста помоги :(

Cubox
источник
Я предполагаю, что вы смотрели на некоторые снимки с помощью wireshark / tcpdump? Ответ почти наверняка можно найти в захвате, если вы захватите в нужном месте.
Зоредаче
У меня есть tcpdump из интерфейса eno1 при загрузке с клиента и один с сервера (из того же файла). И один из работающего клиента openvpn тоже. Я отредактирую вопрос.
Cubox
Можете ли вы добавить информацию о процессоре от клиента и сервера во время передачи трафика?
Джед Дэниелс
В вашем tcpdump я не вижу медленного трафика (он может быть слишком коротким). Каждый клиент получает один и тот же IP-адрес 10.8.0.2? Можете ли вы пропустить это и скорее протолкнуть маршрут к вашей сети 212.83.129.0?
ot--
Каждый клиент имеет свой собственный ccd со своим IP-адресом. Я не понимаю, что вы подразумеваете под маршрутом к сети.
Cubox

Ответы:

1

Я не уверен, что это одна и та же причина, но я думаю, что стоит настроить параметры tun-mtu и mssfix, как указано в openvpn-on-android-tcp-retransmissions-after-openvpn-server-reboot

РЕДАКТИРОВАТЬ: я нашел, что это может быть также полезно [РЕШЕНО] Недопустимая производительность openVPN Изменение параметра ядра: net.inet.ip.fastforwarding = 1 (добавить в /etc/sysctl.conf на вашем сервере Linux)

оборота Wutiphong
источник
Спасибо за ответ. Изменение параметров tun-mtu и mssfix не помогло. Параметр fastworwarding не существует в Linux. Только ядра BSD.
Cubox
0

Является ли сервер vpn также сервером шлюза? попробуйте удалить push-шлюз, вам нужно, чтобы у клиентов был только дополнительный маршрут.

Алин Андрей
источник
Где вы видите опцию push-gateway?
Cubox
В настройках CCD есть шлюз перенаправления. Вам нужно проверить, есть ли у клиентов статический маршрут к их реальному GW.
MealstroM
Есть. Клиенты могут разговаривать с кем угодно в Интернете, они просто делают это медленно.
Cubox
0

Ваше правило пострутинга iptables выглядит странно, попробуйте это

-A POSTROUTING -s 10.8.0.0/24 -o eno1 -j MASQUERADE

вместо SNAT и удалите один из IP-адресов на eno1, если они вам не нужны. Два публичных IP-адреса на том, что выглядит как Ethernet-интерфейс, выглядит странно. Почему эта настройка?

Я предполагаю, что ваш openvpn-сервер зацикливает и отбрасывает пакеты назад и вперед, что приводит к этой проблеме.

AntonioP
источник
Сейчас у меня есть правило маскарада, оно не решило проблему. У меня есть два на моем сервере, один из которых является отказоустойчивым, а другой основным. Имея сервер с четырьмя ips на интерфейсе eth0 (на другом сервере Archlinux) более года, я могу вам сказать, что множественные ips здесь не проблема ...
Cubox
0

Вы запускаете свой собственный сервер DNS внутри? У меня были проблемы с моей сетью, когда я выполнял настройку powerdns для внутреннего DNS, но у меня не была настроена обратная зона. Wireshark предоставил ответы в этом случае.

Питер Нанн
источник