
技术弄巷
读完仅需
记得星标公众号

在企业服务器运维中,为了提升网络高可用性与带宽性能,双网卡绑定(Team/Bonding)是必备的核心技术。通过将多张物理网卡虚拟为一张逻辑网卡,可实现故障自动切换或流量负载分担,避免单网卡故障导致业务中断,同时提升整体网络吞吐能力。
本文基于nmcli工具,手把手带你完成Linux双网卡绑定配置,包含**负载均衡(loadbalance)与主备(activebackup)**两种企业最常用模式,所有命令可直接复制落地使用。

将多个物理网卡虚拟成一张逻辑网卡,实现:
nmcli conn add type team ifname team1 con-name team1 config '{"runner":{"name":"loadbalance"}}'
nmcli conn add type team ifname team1 con-name team1 config '{"runner":{"name":"activebackup"}}'
查看虚拟网卡:
ip addr show
ls /etc/sysconfig/network-scripts/
nmcli conn add type team-slave ifname ens33 con-name team1-ens33 master team1
nmcli conn add type team-slave ifname ens37 con-name team1-ens37 master team1
nmcli connection modify team1 ipv4.addresses "192.168.140.10/24"
nmcli connection modify team1 ipv4.gateway "192.168.140.2"
nmcli connection modify team1 ipv4.dns "114.114.114.114"
nmcli connection modify team1 +ipv4.dns "223.5.5.5"
nmcli connection modify team1 ipv4.method manual
nmcli connection reload
nmcli connection up team1
teamdctl team1 state
输出示例:
setup:
runner: loadbalance
ports:
ens33
link watches:
link summary: up
ens37
link watches:
link summary: up
nmcli(CentOS 7/8/9 推荐)。teamdctl team1 state。双网卡绑定是服务器组网、高可用架构中的基础技能,无论是物理机、虚拟机还是云服务器,都广泛使用。本文步骤清晰、命令简洁,适合运维人员快速上手。
如果这篇实战教程对你有帮助,欢迎点赞+收藏+关注,后续我会持续更新: ✅ Linux 网络高可用架构 ✅ 网卡绑定故障切换实战 ✅ 企业级网络配置优化 ✅ 运维自动化脚本
详细跳转往期文章:Linux双网卡绑定(team模式)完整实操配置team双网卡绑定 开机自启动配置(关键步骤,确保重启生效)

