linux 使用bond实现双网卡绑定单个IP的示例代码

双网卡绑定单个IP 地址 为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样即使其中的一块物理网卡出现故障,也不会导致连接中断。
bond在Linux下叫bonding,IBM称为etherchanel,broadcom叫team,但是名字怎么变,效果都是将两块或更多的网卡当做一块网卡使用,在增加带宽的同时也可以提高冗余性。

实现双网卡绑定的方法有两种: bond和team
这里先记下bond的绑定方法

bond支持的模式

共支持bond[0-6]共七种模式,常用的就三种,如下:

  • mode=0:默认,平衡负载模式,有自动备援,但需要配置交换机。
  • mode=1:主备模式,其中一条线若断线,其他线路将会自动备援,不需要配置交换机。
  • mode=6:平衡负载模式,有自动备援,不需要配置交换机。

至于其他的模式,解释如下:

mode=2:选择网卡的序号=(源MAC地址 XOR 目标MAC地址) % Slave网卡(从网卡)的数量,其他的传输策略可以通过xmit_hash_policy配置项指定
mode=3:使用广播策略,数据包会被广播至所有Slave网卡进行传送
mode=4:使用动态链接聚合策略,启动时会创建一个聚合组,所有Slave网卡共享同样的速率和双工设定
但是,mode4有两个必要条件

1.支持使用ethtool工具获取每个slave网卡的速率和双工设定;
2.需要交换机支持IEEE 802.3ad 动态链路聚合(Dynamic link aggregation)模式
mode=5:基于每个slave网卡的速率选择传输网卡。必要条件:支持使用ethtool工具获取每个slave网卡的速率。

配置bond

网卡 bond1 IP bond 模式
ens33、ens36 192.168.171.111 mode 1

注: ip地址配置在bond1 上,物理网卡无需配置IP地址

#加载bonding模块,并确认已经加载
[root@web01 ~]# modprobe --first-time bonding
[root@web01 ~]# lsmod | grep bonding
bonding        141566 0
#编辑bond1配置文件
[root@web01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-bond1 << EOF
> DEVICE=bond1
> TYPE=Bond
> IPADDR=192.168.171.111
> NETMASK=255.255.255.0
> GATEWAY==192.168.171.2
> DNS1=114.114.114.114
> DNS2=8.8.8.8
> USERCTL=no
> BOOTPROTO=none
> ONBOOT=yes
> EOF
#修改ens33配置文件
[root@web01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-ens33 << EOF
> DEVICE=ens33
> TYPE=Ethernet
> ONBOOT=yes
> BOOTPROTO=none
> DEFROUTE=yes
> IPV4_FAILURE_FATAL=no
> NMAE=ens33
> MASTER=bond1        # 需要和上面的ifcfg-bond0配置文件中的DEVICE的值一致
> SLAVE=yes
> EOF
#修改ens36配置文件
[root@web01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-ens33 << EOF
> DEVICE=ens36
> TYPE=Ethernet
> ONBOOT=yes
> BOOTPROTO=none
> DEFROUTE=yes
> IPV4_FAILURE_FATAL=no
> NAME=ens36
> MASTER=bood1
> SLAVE=yes
> EOF

# 配置bonding
[root@web01 ~]# cat >> /etc/modules-load.d/bonding.conf << EOF
> alias bond1 bonding
> options bonding mode=1 miimon=200      # 加载bonding模块,对外虚拟网络接口设备为 bond1
> EOF

#重启网卡使配置生效
[root@web01 ~]# systemctl restart network

注:如果配置完毕后重启网卡服务一直启动失败,而且日志里面也检查不出错误来,可以关闭NetworkManager后再次重启网卡试试

重启网络后查看各个网卡的信息

[root@web01 ~]# ip a show ens33
2: ens33: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond1 state UP group default qlen 1000
  link/ether 00:0c:29:9f:33:9f brd ff:ff:ff:ff:ff:ff
[root@web01 ~]# ip a show ens36
3: ens36: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond1 state UP group default qlen 1000
  link/ether 00:0c:29:9f:33:9f brd ff:ff:ff:ff:ff:ff
[root@web01 ~]# ip a show bond1
7: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
  link/ether 00:0c:29:9f:33:9f brd ff:ff:ff:ff:ff:ff
  inet 192.168.171.111/24 brd 192.168.171.255 scope global noprefixroute bond1
    valid_lft forever preferred_lft forever
  inet6 fe80::20c:29ff:fe9f:339f/64 scope link
    valid_lft forever preferred_lft forever

查看bond1相关信息

#查看bond1的接口状态
[root@web01 ~]# cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)      # 绑定模式
MII Status: up      # 接口状态
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: ens33       # 备用接口: ens33
MII Status: up        # 接口状态
Speed: 1000 Mbps         # 端口速率
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:9f:33:9f       # 接口永久MAC地址
Slave queue ID: 0

Slave Interface: ens36      # 备用接口: ens36
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:9f:33:a9
Slave queue ID: 0

当做到这一步的时候,ens33或ens36中任意一块网卡down掉,都不会影响通信

注: 如果你是使用vmware workstaction虚拟机进行测试,请不要直接执行命令ifdown ens33或ifdown ens36进行测试,这样因为虚拟机的原因测试不到效果,可以在网络适配器里将已连接√给取消掉

到此这篇关于linux 使用bond实现双网卡绑定单个IP的示例代码的文章就介绍到这了,更多相关linux 双网卡绑定单个IP内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Linux系统下双网卡配置实践总结

    前提: 1.不要在虚拟机上配置.不论是vm5还是vm6,本人试过多次,每次都是貌似成功,但用机器ping做断网试验时就会发现真相: 2.必须用同品牌同型号网卡.两块不一样的网卡,按照文档配置完毕后,即使从本机ping外部地址,也会发现网络似乎完全断了: 3.慎用service network restart.配置完毕,试验成功后,避免在双网卡机器上执行网络重启的操作,否则你会发现网络不通了,即使你手工再次执行ifenslave eth0 eth1也只能激活一块网卡. 下面说一下配置: 1.网卡配

  • linux 双网卡绑定网络设置方法

    设置linux主机的主机名和域名 /etc/hosts 例子 127.0.0.1 localhost.localdomain localhost 一般情况下hosts的内容关于主机名(hostname)的定义,每行为一个主机,每行由三部份组成,每个部份由空格隔开.其中#号开头的行做说明,不被系统解释. 第一部份:网络IP地址: 第二部份:主机名.域名,注意主机名和域名之间有个半角的点,比如 localhost.localdomain 第二部份:主机名(主机名别名) ,其实就是主机名: 当然每行也

  • Linux采用双网卡bond、起子接口的方式

    什么是bond 网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术. 适用场景 服务器两张网卡需要做bond,并且bond后网卡需配置不同网段的地址,用于走不同流量,这个时候就可以采用起子接口的方式. 实验场景 设备 服务器:Server_A 核心交换机:Switch_A.Switch_B 交换机连接方式:堆叠 服务器网卡:enp176s0f0.enp176s0f1做bond IP段划分 业务段     VLAN 201:10.10

  • Linux双网卡绑定实现负载均衡详解

    Linux双网卡绑定实现负载均衡,供大家参考,具体内容如下 系统环境:CentOS release 6.9 (Final) Linux centos6 2.6.32-696.10.1.el6.x86_64 Ubuntu系统下使用ifenslave进行网卡配置,方法大同小异. 关闭NetworkManager # service NetworkManager stop # chkconfig NetworkManager off 创建bond0接口配置文件 # cd /etc/sysconfig/

  • Linux双网卡绑定脚本的方法示例

    linux运维及配置工作中,常常会用到双网卡绑定,少数几台服务器的配置还好,如果是需要配置几十甚至上百台,难免会枯燥乏味,易于出错,我编写了这个双网卡绑定的辅助脚本,可傻瓜式地完成linux双网卡绑定工作,当然,该脚本主要还是用于小批量的系统配置,如需配置大量的服务器,可提取脚本中的bonding函数,稍作修改即可,你值得一试! 1.适用范围 该shell脚本可在以下linux系统创建多个绑定网卡,用于生产环境没问题的: Redhat 5.x CentOS 5.x Kylin 3.x KUX 2

  • Linux 系统双网卡绑定配置实现

    系统版本 [root@ ~]# cat /etc/redhat-release CentOS release 6.8 (Final) [root@ ~]# uname -r 2.6.32-642.6.1.el6.x86_64 网卡说明 eth0   192.168.1.8(服务器外网卡) eth1 eth2 两块服务器网卡(内网) 关闭防火墙 [root@ ~]# /etc/init.d/iptables stop [root@ ~]# chkconfig iptables off 关闭seli

  • Linux下双网卡Firewalld的配置流程(推荐)

    实验室拟态存储的项目需要通过LVS-NAT模式通过LVS服务器来区隔内外网的服务,所以安全防护的重心则落在了LVS服务器之上.笔者最终选择通过firewalld放行端口的方式来实现需求,由于firewall与传统Linux使用的iptable工具有不小的区别,接下来通过博客来记录一下firewalld的配置流程. 1.Firewall服务的简介: firewalld提供了一个 动态管理的防火墙,用以支持不同网络区域的规则,分配对一个网络及其相关链接和界面一定程度的信任.它具备对 IPv4 和 I

  • linux 使用bond实现双网卡绑定单个IP的示例代码

    双网卡绑定单个IP 地址 为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样即使其中的一块物理网卡出现故障,也不会导致连接中断. bond在Linux下叫bonding,IBM称为etherchanel,broadcom叫team,但是名字怎么变,效果都是将两块或更多的网卡当做一块网卡使用,在增加带宽的同时也可以提高冗余性. 实现双网卡绑定的方法有两种: bond和team 这里先记下bond的绑定方法 bond支持的模式 共支持bond[0-6]共七种模式,常用

  • Centos7/RHEL7双网卡绑定的方法

    1. 简要 双网卡绑定技术在centos7中使用了teaming技术,而在rhel6/centos7中使用的是bonding技术,在centos7中双网卡绑定既能使用teaming也可以使用bonding,这里推荐使用teaming技术,方便与查看和监控. 2. 原理 这里介绍两种最常见的双网卡绑定模式: (1) roundrobin - 轮询模式 所有链路处于负载均衡状态,这种模式的特点增加了带宽,同时支持容错能力. (2) activebackup - 主备模式 一个网卡处于活动状态,另一个

  • Centos 7.2中双网卡绑定及相关问题踩坑记录

    前言 最近工作中在做线上服务器,安装centos7.2 x64最小化安装,需要做链路聚合,双网卡绑定.在centos 6.x 和 centos 7上测试都OK,于是直接开搞. 说明下,以下环境是在虚拟机中实现的: 系统: centos7.2 x64 最小化安装. 为了方便演示,这里共有三张网卡: eno16777736 : 桥接网卡:10.0.0.11/24 剩下的两张网卡准备做绑定: eno33554984 eno50332208 [root@bogon ~]# nmcli con sh NA

  • python利用MethodType绑定方法到类示例代码

    前言 本文主要给大家介绍了关于python用MethodType绑定方法到类的相关内容,分享出来供大家参考学习,下面话不多说了,来一起看看详细的介绍: 对python中MethodType不熟悉的朋友们可以先看看这篇文章 问题引出 先看下面一段代码: from types import MethodType def set_age(self,age): self.age=age class Stu(object): pass Stu.set_age=MethodType(set_age,Stu)

  • js 绑定键盘鼠标事件示例代码

    1.绑定键盘回车事件(注意:用jq提交时想同时按回车键可以提交,此时就不要用form了.) 复制代码 代码如下: document.onkeydown = function(evt){ var evt = window.event?window.event:evt; if(evt.keyCode==13){ subcomment(); //如果按下的是回车键,则执行对应的js函数 } }

  • EasyUI的DataGrid绑定Json数据源的示例代码

    EasyUI给表格绑定数据是最常用的方法,小编分享一下总结出来的两种绑定表格方法,知识在于积累. 第一种:数据存放在数据集中,每一行对应多个值,利用循环把数据绑定到表格 前台代码: <table id="dg" class="easyui-datagrid" style="width:100%;height:100%;" title="需要设置表格标题" data-options=" rownumbers:tr

随机推荐