Linux 通过 nmcli 命令实现双网卡的链路聚合 (bond)

原文地址:https://www.cnblogs.com/demoduan/p/15909264.html

Linux 多网卡绑定

网卡绑定 mode 共有七种 (0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6

常用的有三种

mode=0:平衡负载模式,有自动备援,但需要 “Switch” 支援及设定
mode=1:自动备援模式,其中一条线若断线,其他线路将会自动备援
mode=6:平衡负载模式,有自动备援,不必 “Switch” 支援及设定

七种 bond 模式说明:

第一种模式:mode=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)

特点:传输数据包顺序是依次传输(即:第1个包走 eth0,下一个包就走 eth1…. 一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降

第二种模式:mode=1,即: (active-backup) Active-backup policy(主-备份策略)

特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac 地址是外部可见得,从外面看来,bond 的 MAC 地址是唯一的,以避免 switch (交换机) 发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有 N 个网络接口的情况下,资源利用率为 1/N

第三种模式:mode=2,即:(balance-xor) XOR policy(平衡策略)

特点:基于指定的传输 HASH 策略传输数据包。缺省的策略是:(源 MAC 地址 XOR 目标 MAC地址) % slave 数量。其他的传输策略可以通过 xmit_hash_policy 选项指定,此模式提供负载平衡和容错能力

第四种模式:mode=3,即:broadcast(广播策略)

特点:在每个 slave 接口上传输每个数据包,此模式提供了容错能力

第五种模式:mode=4,即:(802.3ad) IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad 动态链接聚合)

特点:创建一个聚合组,它们共享同样的速率和双工设定。根据 802.3ad 规范将多个 slave 工作在同一个激活的聚合体下
外出流量的 slave 选举是基于传输hash策略,该策略可以通过 xmit_hash_policy 选项从缺省的 XOR 策略改变到其他策略。需要注意的是并不是所有的传输策略都是 802.3ad 适应的
必要条件:
条件1:ethtool 支持获取每个 slave 的速率和双工设定
条件2:switch 支持 IEEE 802.3ad Dynamic link aggregation
条件3:大多数 switch 需要经过特定配置才能支持 802.3ad 模式

第六种模式:mode=5,即:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡)

特点:不需要任何特别的switch(交换机)支持的通道 bonding。在每个 slave 上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个 slave 接管失败的 slave 的 MAC 地址
该模式的必要条件:ethtool 支持获取每个 slave 的速率

第七种模式:mode=6,即:(balance-alb) Adaptive load balancing(适配器适应性负载均衡)

特点:该模式包含了 balance-tlb 模式,同时加上针对 IPV4 流量的接收负载均衡 (receive load balance, rlb),而且不需要任何 switch 的支持。接收负载均衡是通过 ARP 协商实现的。bonding驱动截获本机发送的 ARP 应答,并把源硬件地址改写为 bond 中某个 slave 的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信
来自服务器端的接收流量也会被均衡。当本机发送 ARP 请求时,bonding 驱动把对端的 IP 信息从 ARP 包中复制并保存下来。当 ARP 应答从对端到达时,bonding 驱动把它的硬件地址提取出来,并发起一个 ARP 应答给 bond 中的某个 slave。使用ARP协商进行负载均衡的一个问题是:每次广播 ARP 请求时都会使用 bond 的硬件地址,因此对端学习到这个硬件地址后,接收流量将会全部流向当前的 slave。这个问题可以通过给所有的对端发送更新 (ARP 应答)来解决,应答中包含他们独一无二的硬件地址,从而导致流量重新分布。当新的 slave 加入到 bond 中时,或者某个未激活的 slave 重新 激活时,接收流量也要重新分布。接收的负载被顺序地分布(round robin)在 bond 中最高速的 slave 上
当某个链路被重新接上,或者一个新的 slave 加入到 bond 中,接收流量在所有当前激活的 slave 中全部重新分配,通过使用指定的 MAC 地址给每个 client 发起 ARP 应答。下面介绍的 updelay 参数必须被设置为某个大于等于 switch 转发延时的值,从而保证发往对端的 ARP 应答 不会被switch(交换机)阻截。
file

必要条件:

条件1:ethtool 支持获取每个 slave 的速率;
条件2:底层驱动支持设置某个设备的硬件地址,从而使得总是有个 slave (curr_active_slave) 使用 bond 的硬件地址,同时保证每个 bond 中的 slave 都有一个唯一的硬件地址。如果 curr_active_slave 出故障,它的硬件地址将会被新选出来的 curr_active_slave 接管
其实mod=6与mod=0的区别:mod=6,先把 eth0 流量占满,再占 eth1,….ethX;而 mod=0 的话,会发现2个口的流量都很稳定,基本一样的带宽。而 mode=6,会发现第一个口流量很高,第2个口只占了小部分流量

下方以 mode=6 为例

第一步:为虚拟机添加两块万兆网卡

file
nmcli dev status
file
ethtool ens224 |grep -i speed
ethtool ens256 |grep -i speed
file

第二步:创建一块虚拟网卡 bond0

nmcli con add con-name bond0 ifname bond0 type bond mode 6 ipv4.address 172.16.13.13/24 ipv4.method man
file

第三步:为 ens224 和 ens256 两块网卡创建配置文件并将两块网卡作为 bond0 网卡的 slave

nmcli con add con-name bond0-port1 ifname ens224 type bond-slave master bond0
nmcli con add con-name bond0-port2 ifname ens 256 type bond-slave master bond0
file

第四步:重载并激活 bond0 网卡

nmcli con reload bond0
nmcli con up bond0
file

然后查看 bond0 网卡的带宽

ethtool bond0 |grep -i speed
file

查看 bond0 网卡的 ip 地址和两块物理网卡的状态

ip a show bond0
nmcli con show
file

查看 bond0 的详细信息

cat /proc/net/bonding/bond0
file

最后我们通过模拟网卡故障查看流量通过状态 (即断开当前活跃的 slave)

nmcli con down bond0-port1
nmcli con show
file

用同一网段的主机去 ping bond0 的 IP 地址,同时 Stream8-clone1 端进行抓包分析

file
tcpdump -i bond0
file

一共 ping 了四次,通过 tcpdump 也抓到了四对 request 和 reply

发表回复

登录... 后才能评论