Dzień dobry mam nadzieję, że piszę w dobrej grupie.
Mam problem z tworzeniem grupy kart sieciowych.
Mam CentOS 7, serwer HP Proliant DL380 G8.
Dodałem dwie karty HP dwuportowe nc360t.
1. Do konfiguracji użyłem nmtui .
Karty działaj poprawnie, i każda ma swój adres MAC.
Wszystko działa jak należy.
2. Z pomocą nmtui skonfigurowałem team0, dodałem karty (ens2f1, ens5f0, ens5f1).
W oknach nmtui pojawiły się ich adresy MAC takie jak powinny być.
Zapisałem team0.
Po wydaniu komendy
ip a dostałem:
team0 - MAC - e8:39:35:12:
a4:f9ens2f1 - MAC - e8:39:35:12:
a4:f9ens5f0 - MAC - e8:39:35:12:
a4:f9ens5f1 - MAC - e8:39:35:12:
a4:f9Na dodatek
nmcli con show team0 w pozycji
team.config: round-robinTaki zestaw działa, ale jego wydajność jest na poziomie jednej karty!
A mnie zależy na powiększeniu wydajności łacza.
3. Usunąłem z /etc/Sysconfig/network-scripts pliki odpowiadające za team0 i karty.
wydałem polecenia:
nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "lacp"}}'
nmcli con add type team-slave ifname ens2f1 master team0
nmcli con add type team-slave ifname ens5f1 master team0
nmcli con add type team-slave ifname ens5f0 master team0
nmcli con up team0Zadziałało, ale
ip a nadal zwraca:
5: ens2f1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master team0 state UP group default qlen 1000
link/ether e8:39:35:12:
a4:f9 brd ff:ff:ff:ff:ff:ff
6: ens5f0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master team0 state UP group default qlen 1000
link/ether e8:39:35:12:
a4:f9 brd ff:ff:ff:ff:ff:ff
7: ens5f1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master team0 state UP group default qlen 1000
link/ether e8:39:35:12:
a4:f9 brd ff:ff:ff:ff:ff:ff
32: team0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000
link/ether e8:39:35:12:
a4:f9 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.210/24 brd 192.168.1.255 scope global noprefixroute team0
valid_lft forever preferred_lft forever
nmcli con show team0team.config: {"runner": {"name": "lacp", "tx_hash": ["eth", "ipv4", "ipv6"]}}
nmcli connection showteam0 2d0101df-97d5-4688-aa76-7e745e7ac2a9 team team0
team-slave-ens2f1 30d48573-8392-4377-955d-0cfc81de4d3f ethernet ens2f1
team-slave-ens5f0 4397e35f-a2b3-4b7c-8180-19e08c1a052b ethernet ens5f0
team-slave-ens5f1 c440fa1f-bf32-4665-9e80-7d9fd1194dde ethernet ens5f1
Jest jak było - niby działa ale wydajność na poziomie jednej karty.
Zmieniałem RUNNERS na loadbalance - bez rezultatu
Mam jeszcze w systemie dwie karty eno1 i eno2.
Ale nie jestem w stanie z nich korzystać bo to innego rodzaju łącza.
Jak buduję na nich team to zarówno team jak i karty maj swoje MAC.
Jestem w podłamany.
Może jest ktoś kto wie jak z tego wybrnąć?!