Добрый день!
Спасибо за ответ.
То тестирование, что выдает 600Мбит\с - это тестирование, где вланы терминируются на Микротике, я грешу именно на него, и многие грешат на него, так как там нет как таковой аппаратной маршрутизации между вланами.
А тестирование с Элтексами проводил по следующей схеме:
Простите, не указал, что между коммутаторами не 10г линки. А вот к Микротикам в прошлом тесте идут именно 10+10, но мы и до них не добираемся. (в это время нагрузка на сеть незначительна)
На элтексе банально:
Код: Выделить всё
interface vlan 1003
ip address 10.1.16.1 255.255.254.0
Код: Выделить всё
interface Port-channel16
loopback-detection enable
switchport mode trunk
switchport trunk allowed vlan add 10,1000-1004,1010
sh ip route приводил в прошлом сообщении, там просто DirectConnected маршруты. По этой схеме трафик между серверами (даже если это две виртуалки в пределах одной ноды) будет идти через MES-ы.
sh cpu ut ДО тестирования:
Код: Выделить всё
Memory usage
---------------
Total/Free: 1065353216 B/608950160 B (57%)
CPU utilization service is on.
CPU utilization
---------------
five seconds: 11%; one minute: 21%; five minutes: 22%
sh cpu input-rate det ДО тестирования:
Код: Выделить всё
Traffic type Rate in pps Packets count
---------------------- ------------- -------------
stack 16 4172640279
http 0 0
telnet 0 0
ssh 0 6886
snmp 0 343
ip 0 16
arp 4 18246617
arp inspection 0 0
stp 1 24654455
ieee* 3 104459460
route unknown 0 11189
ip hop by hop 0 0
mtu exceeded 0 0
ipv4 multicast 0 292666
ipv6 multicast 0 0
dhcp snooping 0 0
igmp snooping 0 0
mld snooping 0 0
ttl exceeded 0 0
ipv4 illegal address 0 0
ipv4 header error 0 0
ip DA mismatch 0 0
sflow 0 0
log deny ACEs 0 0
vrrp 0 0
log permit ACEs 0 0
ipv6 header error 0 0
multicast routing 0 0
multicast rpf fail 0 0
tcp syn 0 8
Значение stack - rate in pps - иногда подскакивает до 150-220, на несколько секунд.
Запустил iperf -c -t 60 (на 60 сек).
Нагрузка в sh cp ut не изменилась во время тестирования
cpu input-detailed rate во время тестирования показывает такие значения с разницей в 3-6 секунд:
Код: Выделить всё
l2#sh cpu input-rate detailed | exclude 0
Traffic type Rate in pps Packets count
---------------------- ------------- -------------
stack 59 4172689653
stp 4 24655352
Код: Выделить всё
l2#sh cpu input-rate detailed | exclude 0
Traffic type Rate in pps Packets count
---------------------- ------------- -------------
stack 36 4172689717
stp 4 24655357
Код: Выделить всё
l2#sh cpu input-rate detailed | exclude 0
Traffic type Rate in pps Packets count
---------------------- ------------- -------------
stp 1 24655363
Результаты теста:
Первое это однопоточный режим 10 секунд, второе это однопоточный 60 секунд. Если я правильно понимаю, что TCP Window size и есть максимальные размеры пакета.
Тестирование в течение 60 секунд и на 10 потоках - нагрузка на CPU не меняется, в input-rate тоже самое. Но, когда это всё написал, перечитал ваше сообщение, и понял, что при маршрутизации между вланами трафик через CPU и не проходит, собственно нагрузка и не будет расти.. Ну чтож, удалять не буду)))
Подскажите, что-то же должно у коммутатора нагружаться при маршрутизации между вланами большого количества трафика? Что помониторить, как какие-нибудь значения посмотреть?
sh tech не хочу сейчас выкладывать, скажу лишь, что ничего специфического и неординарного там не настроено, только порт-чанелы в режиме транк. Без ОСПФ и тому подобного. Но, к сожалению, версия ПО пока старая 4.0.10.1, все никак окно не выбьем, чтобы обновиться.