搜档网
当前位置:搜档网 › 服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定与交换机链路聚合对接探讨
服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定

与交换机链路聚合对接探讨

--综合支持部王光明目前服务器的多网卡绑定技术在企业网中得到了广泛应用,常见为双网卡绑定,绑定后既能增加网络带宽,同时又能做相应的冗余,可以说是好处多多。因为linux下的双网卡绑定无需第三方的驱动支持,所以一般企业都会使用linux操作系统下自带的网卡绑定模式。当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(例如intel网卡驱动)。

以下我们对linux多网卡绑定的原理及交换机则需要作的配置进行探讨。

linux有七种网卡绑定模式:

1.round robin

2.active-backup

3.load balancing (xor)

4.fault-tolerance (broadcast)

https://www.sodocs.net/doc/9e18240611.html,cp(802.3ad)

6.transmit load balancing

7.adaptive load balancing。

A different slave becomes active if, and only if, the active slave fails. The bond’s MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode.

特点:

一个端口处于主状态,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,进行主备切换。

同一时间只有一条链路在工作,只能增强可靠性,无法增加链路带宽。对应交换机的配置:

从实现原理上来看,此机制类似我司(H3C)的smart link,当主链路故障时,可进行切换,因为线路故障导致了交换机接口down,所以MAC表及ARP表自动刷新,无需交换机做配置。

同是也存在一种弊端,如果主链路故障,但没有导致交换机接口down,那么由于MAC表及ARP表不能立即刷新,数据转发将会出现一段时间的中断。

第三种:mode 2 load balancing (xor)

标准文档定义:

XOR policy: Transmit based on [(source MAC address XOR'd with destination MAC address) modulo slave count]. This selects the same slave for each destination MAC address. This mode provides

load balancing and fault tolerance.

特点:

该模式可理解为源MAC目的MAC hash,同一条流总是从同一条路径上转发,解决了报文乱序的问题,并且一定程度上增加了带宽。与RR模式(mode 0)一样,多张网卡使用同一个IP同一个MAC。

此种模式只适用于同一个二层网络中的相互访问,如果数据是通过网关转发,则不会有负载均衡的效果。

对应交换机的配置:

从实现原理上看,此模式与mode0一样,需要配置静态的链路聚合(port channel或port trunk)来与服务器配合。

第四种:mode 3 fault-tolerance (broadcast)

标准文档定义:

Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance.

特点:

这种模式的特点是一个报文会复制多份往bond下的多个接口分别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。

对应交换机的配置:

由于此种模式不同链路上的报文完全相同,连接到同一交换机没有太大的意义,一般都会将两条链路连接到两台不同交换机上,达到

高可靠的效果,交换机上不需做配置。

第五种:mode 4 lacp

标准文档定义:

IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and duplex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification. Pre-requisites: 1. Ethtool support in the base drivers for retrieving.the speed and duplex of each slave. 2.

A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.

特点:

802.3ad模式是IEEE标准,也就是常说的LACP协议,与mode2类似,采用逐流方式负载,可通过协议交互进行链路故障检测,避免了mode2模式中因交换机接口不down导致的数据中断。

对应交换机的配置:

交换机上配置链路聚合,并且启用LACP协议。

第六种:mode5 t ransmit load balancing

标准文档定义:

Adaptive transmit load balancing: channel bonding that does not require any special switch support. The outgoing traffic is distributed according to the current load (computed

relative to the speed) on each slave. Incoming traffic is received by the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed receiving slave. Prerequisite: Ethtool support in the base drivers for retrieving the speed of each slave.

特点:

此模式中,多条链路采用自己的真实MAC进行工作,允许速率同的网卡进行绑定。只会通过主链路的MAC地址响应ARP,所以入方向的流量只会在一条链路上转发。

此模式只能均衡出方向的流量,虽然也是根据MAC进行均衡,但算法更加智能,可以针对不同速率接口的负载情况合理的分配带宽。但对于需要网关转发的数据及入方向的数据,无法实现负载。

对应交换机的配置:

交换机上只需保证接口在同一VLAN下即可,无需其他配置。(只限于二层交换机)

第七种:mode6 adaptive load balancing

特点:

该模式是mode5的改进版,不同ARP的请求,bond驱动将会以不同网卡的实际MAC进行响应,从而实现了入方向的负载均衡。并且不需要交换机的支持(只限于二层交换机)。此种模式同样允许不同速率的网卡进行绑定。

网上资料中会提到,mode5及mode6方式不需要交换机的支持,

服务器安装双网卡实现内外网的解决方

今天上午忙活了一天,原因就是我们的机房里的机器上不了网了:作为路由器的主机能够上,但是下面的机器就是上不了,能够ping通主机,但是ping不通外网,所以决定重装。(当然这也不是重装的主要原因,主要是因为机器中毒了,而且杀毒软件还都查不出来,机器总是向城域网的主机发数据包,被教育局全市通报了,呵呵)。于是,格式化c盘,装上win2000server,然后安装驱动程序,一切都很顺利。然后安装网卡。我的机器有2块网卡,一块是realtek8139的,系统能够自驱,连着内网。一块是d-link的,需要自己驱动,连着外网。所以当装好系统以后,总是realtek的那块网卡先驱动起来,然后才是自己动手安装d-link的驱动。结果,按照原来的ip设置设置好以后,服务器自己能够上网,但是子网里的机器却是怎么也上不了。于是上网狂搜。结果终于让我搜到了,原来可能是由于网卡的冲突造成的。对于有两张网卡的同志一定要吸取我的教训啊! (一阵鸡蛋和柿子砸了过来了,“你还没有讲你是怎么解决的呢?”) 对对对,原因就是网卡的安装顺序反了。要先装连接外网的d-link,然后再装内网的realtek 的,具体原因我在这里就不说了,大家自己上网搜一下“双网卡冲突”就有一大堆的。于是我就到设备管理器里面,将两块网卡都卸载掉。然后重起机器,这时候系统自然是先找到realtek的了,这时候我们先不要安装d-link的驱动,而是先将realtek的卸载掉,然后再安装d-link的驱动,接下来再安装realtek的驱动。………… (为什么不在重起之前就直接把realtek的卸载掉重装一编不就行了吗?不是一个道理吗?) 问得好,我也曾经试过这样做,结果就是这个捷径行不通(至少在我试验的时候是失败的),我也不知道具体原因。这位同学如果你一定要知道为什么的话,我给你推荐以为:盖茨先生。怎么样?满意了吗?

华为配置静态LACP模式链路聚合示例

华为配置静态LACP模式链路聚合示例 组网需求 如图所示,在两台Switch设备上配置静态LACP模式链路聚合组,提高两设备之间的带宽与可靠性,具体要求如下: 2条活动链路具有负载分担的能力。 两设备间的链路具有1条冗余备份链路,当活动链路出现故障链路时,备份链路替代故障链路,保持数据传输的可靠性。 图配置静态LACP模式链路聚合组网图 配置思路 采用如下的思路配置静态LACP模式链路聚合: 在Switch设备上创建Eth-Trunk,配置Eth-Trunk为静态LACP模式。 将成员接口加入Eth-Trunk。 配置系统优先级确定主动端。 配置活动接口上限阈值。 配置接口优先级确定活动链路。 数据准备 为完成此配置例,需准备如下的数据: 两端Switch设备链路聚合组编号。 SwitchA系统优先级。 活动接口上限阈值。 活动接口LACP优先级。

操作步骤 创建编号为1的Eth-Trunk,配置它的工作模式为静态LACP模式# 配置SwitchA。 system-view [Quidway] sysname SwitchA [SwitchA] interface eth-trunk 1 [SwitchA-Eth-Trunk1] bpdu enable [SwitchA-Eth-Trunk1] mode lacp-static [SwitchA-Eth-Trunk1] quit# 配置SwitchB。 system-view [Quidway] sysname SwitchB [SwitchB] interface eth-trunk 1 [SwitchB-Eth-Trunk1] bpdu enable [SwitchB-Eth-Trunk1] mode lacp-static [SwitchB-Eth-Trunk1] quit 将成员接口加入Eth-Trunk # 配置SwitchA。 [SwitchA] interface ethernet 0/0/1 [SwitchA-Ethernet0/0/1] eth-trunk 1 [SwitchA-Ethernet0/0/1] quit [SwitchA] interface ethernet 0/0/2 [SwitchA-Ethernet0/0/2] eth-trunk 1 [SwitchA-Ethernet0/0/2] quit [SwitchA] interface ethernet 0/0/3 [SwitchA-Ethernet0/0/3] eth-trunk 1 [SwitchA-Ethernet0/0/3] quit# 配置SwitchB。 [SwitchB] interface ethernet 0/0/1 [SwitchB-Ethernet0/0/1] eth-trunk 1 [SwitchB-Ethernet0/0/1] quit [SwitchB] interface ethernet 0/0/2 [SwitchB-Ethernet0/0/2] eth-trunk 1 [SwitchB-Ethernet0/0/2] quit [SwitchB] interface ethernet 0/0/3 [SwitchB-Ethernet0/0/3] eth-trunk 1 [SwitchB-Ethernet0/0/3] quit 在SwitchA上配置系统优先级为100,使其成为LACP主动端

华为S5700配置实例76667

目录 1 以太网配置 1、1 以太网接口配置 1、1、1 配置端口隔离示例 1、2 链路聚合配置 1、2、1 配置手工负载分担模式链路聚合示例 1、2、2 配置静态LACP模式链路聚合示例 1、3 VLAN配置 1、3、1 配置基于接口划分VLAN示例 1、3、2 配置基于MAC地址划分VLAN示例 1、3、3 配置基于IP子网划分VLAN示例 1、3、4 配置基于协议划分VLAN示例 1、3、5 配置VLAN间通过VLANIF接口通信示例 1、3、6 配置VLAN聚合示例 1、3、7 配置MUX VLAN示例 1、3、8 配置自动模式下的Voice VLAN示例 1、3、9 配置手动模式下的Voice VLAN示例 1、4 VLAN Mapping配置 1、4、1 配置单层Tag的VLAN Mapping示例 1、4、2 配置单层Tag的VLAN Mapping示例(N:1) 1、5 QinQ配置 1、5、1 配置基于接口的QinQ示例 1、5、2 配置灵活QinQ示例 1、5、3 配置灵活QinQ示例-VLAN Mapping接入 1、5、4 配置VLANIF接口支持QinQ Stacking示例 1、6 GVRP配置 1、6、1 配置GVRP示例 1、7 MAC表配置 1、7、1 配置MAC表示例 1、7、2 配置基于VLAN的MAC地址学习限制示例 1、7、3 配置接口安全示例 1、7、4 配置MAC防漂移示例

1、7、5 配置全局MAC漂移检测示例 1、8 STP/RSTP配置 1、8、1 配置STP功能示例 1、8、2 配置RSTP功能示例 1、9 MSTP配置 1、9、1 配置MSTP的基本功能示例 1、9、2 配置MSTP多进程下单接环与多接环接入示例 1、10 SEP配置 1、10、1 配置SEP封闭环示例 1、10、2 配置SEP多环示例 1、10、3 配置SEP混合环示例 1、10、4 配置SEP+RRPP混合环组网示例(下级网络拓扑变化通告) 1、10、5 配置SEP多实例示例 1、11 二层协议透明传输配置 1、11、1 配置基于接口的二层协议透明传输示例 1、11、2 配置基于VLAN的二层协议透明传输示例 1、11、3 配置基于QinQ的二层协议透明传输示例 1、12 Loopback Detection配置 1、1 2、1 配置Loopback Detection示例 1以太网配置 本文档针对S5700的以太网业务,主要包括以太网接口配置、链路聚合配置、VLAN配置、VLAN Mapping配置、QinQ配置、GVRP配置、MAC表配置、STP/RSTP、MSTP配置、SEP配置、二层协议透明传输配置、Loopback Detection配置。 本文档从配置过程与配置举例两大方面介绍了此业务的配置方法与应用场景。 ?1、1 以太网接口配置 介绍以太网接口的基本知识、配置方法与配置实例。 ?1、2 链路聚合配置 介绍链路聚合的基本知识、配置方法与配置实例。

多块网卡的负载平衡设置

多网卡负载均衡 NICExpress软件下载地址: https://www.sodocs.net/doc/9e18240611.html,/soft/36156.htm 注册码: 名称:https://www.sodocs.net/doc/9e18240611.html, 序列号: 381567 =============================================== 前言:市面上现在天生支持绑定功能的网卡不多,而且多是出身名门的高档服务器网卡,身价不菲,设置过程也比较专业,使用和维护都不简便。难道我等平头百姓,攥着几十元的廉价8139的兄弟们就无缘领略双网卡绑定的快感了吗?非也,今天我就教大家一招,只需一款小小的软件,就可以用普通的8139之类的网卡体验一把双网卡绑定的愉悦,这个软件就叫做“NICExpress”,可能行家们已经捂着嘴乐了,呵呵,笔者的出发点是给菜鸟兄弟们排难解惑,穷办法自娱自乐,说得过火的地方,大家不要见笑,DIY的乐趣就在于此啊。 朋友或许会问了,为什么要用双网卡呢?用双网卡有什么好处?所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x系列、3COM 服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设置将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡。 广告:d_text 多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。 OK,现在就手把手的教大家如何用50元来打造出双网卡的效果! 先下载软件(点击这里下载NIC Express Enterprise),这是最新版本4.0,只有2.15M,软件的兼容性已经做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市场上常见的各种网卡,百兆和千兆网卡都可以用来绑定,但是千万注意,最好用于绑定的网卡是完全相同的,至少也是基于同一芯片的,这样多块网卡才能合作得比较好。切记不要把10M网卡和100M网卡绑定在一起,那样根本起不到提升作用。 下载完软件,先不忙安装,咱们还是先准备好硬件。 第一部分:硬件安装 虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。 我取出“珍藏”的一对市场上随处可见的8139D10M/100M自适应网卡,市场价格25元一个,北京某厂的产品,做工还算精细,总成本50元人民币。

链路聚合配置命令

目录 1 链路聚合配置命令................................................................................................................................ 1-1 1.1 链路聚合配置命令............................................................................................................................. 1-1 1.1.1 description .............................................................................................................................. 1-1 1.1.2 display lacp system-id ............................................................................................................ 1-2 1.1.3 display link-aggregation member-port.................................................................................... 1-2 1.1.4 display link-aggregation summary.......................................................................................... 1-4 1.1.5 display link-aggregation verbose............................................................................................ 1-5 1.1.6 enable snmp trap updown...................................................................................................... 1-7 1.1.7 interface bridge-aggregation .................................................................................................. 1-8 1.1.8 lacp port-priority...................................................................................................................... 1-8 1.1.9 lacp system-priority................................................................................................................. 1-9 1.1.10 link-aggregation mode........................................................................................................ 1-10 1.1.11 port link-aggregation group ................................................................................................ 1-10 1.1.12 reset lacp statistics............................................................................................................. 1-11 1.1.13 shutdown ............................................................................................................................ 1-11

服务器多网卡捆绑

服务器多网卡捆绑 1、Linux系统 1-1、 RHEL5下双网卡绑定。 1-1-1、新增网卡 这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。 1-1-2、修改物理网卡配置

1-1-3、设置虚拟网卡模块 说明:miimon是用来进行链路监测的。比如:miimon=500,那么系统每500ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0-6 七种模式,常用的为0,1两种。 ?mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 ?mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。 例子中使用mode=0的配置来做负载均衡提高系统性能,增大并发带宽。

1-1-4、加载模块(重启系统后就不用手动再加载了) 1-1-5确认模块是否加载成功: 1-1-6、重启网络: 用外部同一网段的一台机器做ping试验,双网卡机器上手工拔掉其中任意一条网络线(或者使用ifup eth0|ifdown eth1),ping机器的终端应该没有中断信息,或者有一个”timeout”后很快恢复,则证明试验成功。 1-2、 RHEL6下双网卡绑定 1-2-1、新增网卡 这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。

服务器双网卡设置同时上内外网route命令

服务器双网卡设置同时上内外网 首先需要有两块网卡,分别接到两个路由上。 外网 internet 地址:192.168.1.1 子网掩码: 255.255.255.0,网关: 192.168.1.1 内网地址: 192.168.42.129 子网掩码:255.255.255.0 网关:192.168.42.132 按正常的设置每块网卡的ip(或通过DHCP自动获取),再cmd下使用route print查看时会看到 即指向0.0.0.0的有两个网关,这样就会出现路由冲突,两个网络的访问都会出现问题。我们需要手动配置路由,才能实现同时访问两个网络。运行cmd(win需要管理员权限) 第一步: route delete 0.0.0.0 ::删除所有的0.0.0.0的路由 第二步:route -p add 0.0.0.0 mask 0.0.0.0 mask 192.168.1.1(此处是IP,不是网关) ::添加0.0.0.0网络路由,这个是缺省时路由用192.168.1.1,加上-p的目的是设为静态(永久)路由,防止下次重起时配置消失。 第三步: route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132 ::添加 192.168.42.0网段路由为192.168.42.132内网路由,可以根据需要调整ip段和子网掩码太到多网段内网路由的效果。 执行后,永久路由就多了二项了

因为上面我们添加的是静态路由,所以,重起后,tcp/ip设置里的默认网络会成为活动网关,这样也会造成路由冲突,所以,需要把内网的tcp/ip设置里的网关去掉 注:第三步 route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132添加路由的时候,如果目标服务器和添加的路由(本网卡)IP没有在一个网段,那么第三步改成:route -p add 192.168.0.0 mask 255.255.255.0 192.168.42.132

华为S配置实例

目录 1 ?以太网配置 ?以太网接口配置 ?配置端口隔离示例 ?链路聚合配置 ?配置手工负载分担模式链路聚合示例 ?配置静态LACP模式链路聚合示例 ?VLAN配置 ?配置基于接口划分VLAN示例 ?配置基于MAC地址划分VLAN示例 ?配置基于IP子网划分VLAN示例 ?配置基于协议划分VLAN示例 ?配置VLAN间通过VLANIF接口通信示例 ?配置VLAN聚合示例 ?配置MUX VLAN示例 ?配置自动模式下的Voice VLAN示例 ?配置手动模式下的Voice VLAN示例 ?VLAN Mapping配置

?配置单层Tag的VLAN Mapping示例 ?配置单层Tag的VLAN Mapping示例(N:1) ?QinQ配置 ?配置基于接口的QinQ示例 ?配置灵活QinQ示例 ?配置灵活QinQ示例-VLAN Mapping接入 ?配置VLANIF接口支持QinQ Stacking示例 ?GVRP配置 ?配置GVRP示例 ?MAC表配置 ?配置MAC表示例 ?配置基于VLAN的MAC地址学习限制示例 ?配置接口安全示例 ?配置MAC防漂移示例 ?配置全局MAC漂移检测示例 ?STP/RSTP配置 ?配置STP功能示例 ?配置RSTP功能示例 ?MSTP配置 ?配置MSTP的基本功能示例

?配置MSTP多进程下单接环和多接环接入示例 ?SEP配置 ?配置SEP封闭环示例 ?配置SEP多环示例 ?配置SEP混合环示例 ?配置SEP+RRPP混合环组网示例(下级网络拓扑变化通告) ?配置SEP多实例示例 ?二层协议透明传输配置 ?配置基于接口的二层协议透明传输示例 ?配置基于VLAN的二层协议透明传输示例 ?配置基于QinQ的二层协议透明传输示例 ?Loopback Detection配置 ?配置Loopback Detection示例 1 ?以太网配置 本文档针对S5700的以太网业务,主要包括以太网接口配置、链路聚合配置、VLAN配置、VLAN Mapping配置、QinQ配置、GVRP配置、MAC表配置、STP/RSTP、MSTP配置、SEP配置、二层协议透明传输配置、Loopback Detection配置。

提高服务器高可用性的双网卡绑定聚合技术的应用

提高服务器可用性的多网卡绑定聚合技术的应用 王和平 摘要:通过NICExpress软件对服务器多网卡进行捆绑聚合,以实现增加带宽、负载均衡、故障自动转移等,从而达到服务器的高可靠性和高可用性。 关键词:网卡聚合;服务器;高可用性 一、引言 现今几乎各行各业内部都建立了自己的服务器,由于服务器的特殊地位,它的可靠性、可用性及其I/O速度就显得非常的重要,保持服务器的高可用性和安全性是企业IT环境的重要指标,其中最重要的一点是服务器网络连接的高可用性。本文通过NICExpress软件,通过实际部署服务器多网卡,以提高服务器网络连接的可用性,配合实现构建高可靠性的网络环境。 二、网卡聚合绑定的特点 网卡绑定聚合就是通过软件将多块网卡绑定为一个IP地址,使用起来就好象在使用一块网卡。网卡是计算机和外部联系的主要通道。个人计算机默认安装一块网卡,服务器基本配置应该安装两块网卡。如果服务器上仅安装一块网卡,建议管理员至少增加一块网卡。一块为主网卡,其他为备用网卡,然后再通过网线将对应的网卡连接到同一交换机上。在服务器和交换机之间建立主连接和备用连接。通过NICExpress虚拟网卡软件将多块网卡绑定为一块网卡,或称之为虚拟网卡组,然后为虚拟网卡组设置一个唯一的IP地址。安装多块网卡后,通过多网卡并发方式传输数据,有利于提高网络传输效率,提高系统性能。一旦网卡组中的任何一个物理连接断开,比如网卡出现故障或链路断开,系统软件将自动监测连接状态,出现故障的网卡将自动切换到其他网卡的物理连接上。 在服务器中部署多块网卡聚合绑定后,将具备如下特点: 1.增加带宽。假如网卡的带宽100Mbps,那么理论上两块网卡聚合绑定后的带宽就是200Mbps,三块网卡聚合绑定后的带宽就是300Mbps。当然实际上的效果是不会这样简单相加的,不过经实际测试使用多个网卡绑定对于增加带宽,保持带宽的稳定性肯定是有益的。经过实际测量,三块带宽为100Mbps的网卡绑定后传输总带宽可以达到260Mbps。 2.均衡负载。多块网卡聚合绑定,可以形成网卡冗余阵列、分担负载。多块网卡被聚合绑定成“一块网卡”之后,网卡之间同步工作,对服务器的访问流量被均衡分配到不同网卡上,从而减轻每块网卡的网络负载,增强服务器的并发访问能力,服务器性能。 3.故障自动切换。如果服务器中的任一网卡出现故障,那么其他网卡将自动接管全部负载,过程是无缝的,数据传输不会中断。服务器中的系统服务或者应用不会中断,增强服务器的可用性。 三、网卡绑定聚合的原则 在服务器中部署多块网卡绑定聚合应该遵循以下原则: 1.聚合绑定的网卡型号应该相同、性能指标要一致,否则运行过程中不稳定,容易出错甚至蓝屏。 2.最大网卡数量原则。绑定的网卡越多,总带宽的增加效果似乎就越明显;但其实还应该考虑到网卡绑定聚合后在运行过程中会过多占用服务器资源,反过来会在一定程度影响服务器的运行速度。所以,管理员可以参考计算机配置和管理软件所支持的最大网卡数量。 3.所有的网卡建议连接到同一台交换机上。 四、部署过程 下面以NICExpress软件实际部署为例,说明多网卡的绑定聚合过程。

服务器双网卡的冗余备份

1. 软件使用原则 服务器接入可以通过使用网卡捆绑软件实现热备冗余,对于服务器双网卡捆绑软件的选择可遵循以下几点原则: 兼容性好,能在不同品牌网卡上使用; 中断恢复快; 能检测深层中断,即能检测到非直连设备的中断。 2. 推荐软件 NIC Express 4.0是一款兼容性较好的捆绑软件,它能兼容Broadcom、D-Link等常见网卡,但在Intel网卡上安装会造成大量丢包。 Inter Proset是针对Intel网卡的专用网卡捆绑软件,但Inter Proset只能在Intel网卡上使用,且不支持深层中断的检测。 3. 软件设置 NIC Express 4.0 使用NIC Express的ELB模式,将网络检测这一关键参数设置为Status Packet,而不能使用Auto,因为设置为Auto 只能检测到直连部分的中断情况,而设置为Status Packet可以通过发状态包,检测到网络中的非直连部分的中断,响应时间更快。其余可使用默认设置。 Inter Proset 使用默认设置即可,另外需要注意: 使用Inter Proset的网卡有隐含的主备关系,即只有主用工作,主用网卡中断后隐含的主备关系交换,再接回后主备关系不变化。本文所有测试时,都使用2号网卡为主用的情况。 4. 三种测试方式 中断服务器网线测试 测试方式: 中断服务器所连网线,再接回,看有无中断。 测试结论: 使用网卡捆绑软件后,中断任意一条网线或接回均不会造成数据传输中断。 中断交换机间网线测试 测试方式: 采用单一中断和组合中断方式测试。 测试结论: 单一或组合中断②号网线,由于交换机重新协商STP,会中断50秒左右。 单一或组合中断⑦号网线,NIC Express 4.0由于可检测深层中断,所以不会造成中断; 而Inter Proset无法检测到下一级网络中断,中断或接回⑦号网线,都会中断45秒左右。 交换机断电测试 测试方式:分别关闭两台核心Cisco3550、两台服务器接入Cisco2950,再开机,测试中断情况。 测试结论: 关闭或打开根交换机(核心主用Cisco3550)电源,由于根漂移,STP重新协商,需中断45秒左右。另外3台交换机关开机均不会造成数据传输中断。

数据通信实验四-交换机链路聚合配置实验

实验四交换机链路聚合配置实验 一、目的要求 1、了解链路聚合控制协议的协商过程; 2、掌握链路聚合配置过程。 二、实验容 背景描述: 假设某企业采用两台交换机组成一个局域网,由于很多数据流量是跨过交换机进行转发的,因此需要提高交换机之间的传输带宽,并实现链路冗余备份,为此网络管理员在两台交换机之间采用两根网线互连,并将相应的两个端口聚合为一个逻辑端口,现要在交换机上做适当的配置来实现这一目标。 工作原理: 端口聚合(Aggregate-port)又称链路聚合,是指两台交换机之间在物理上将多个端口连接起来,将多条链路聚合成一条逻辑链路。从而增大链路带宽,解决交换网络中因带宽引起的网络瓶颈问题。多条物理链路之间能够相互冗余备份,其中任意一条链路断开,不会影响其它链路的正常转发数据。 ●端口聚合使用的是EtherChannel特性,在交换机到交换机之间提供冗余的高速的连 接方式。将两个设备之间多条FastEthernet或GigabitEthernet物理链路捆在一起组成一条设备间逻辑链路,从而增强带宽,提供冗余。 ●两台交换机到计算机的速率都是100M,SW1和SW2之间虽有两条100M的物理通道相 连,可由于生成树的原因,只有100M可用,交换机之间的链路很容易形成瓶颈,使用端口聚合技术,把两个100M链路聚合成一个200M的逻辑链路,当一条链路出现故障,另一条链路会继续工作。 ●一台S2000系列以太网交换机只能有1个汇聚组,1个汇聚组最多可以有4个端口。 组的端口号必须连续,但对起始端口无特殊要求。 ●在一个端口汇聚组中,端口号最小的作为主端口,其他的作为成员端口。同一个汇 聚组中成员端口的链路类型与主端口的链路类型保持一致,即如果主端口为Trunk 端口,则成员端口也为Trunk端口;如主端口的链路类型改为Access端口,则成员端口的链路类型也变为Access端口。 ●所有参加聚合的端口都必须工作在全双工模式下,且工作速率相同才能进行聚合。 并且聚合功能需要在链路两端同时配置方能生效。 ●端口聚合主要应用的场合: ●交换机与交换机之间的连接:汇聚层交换机到核心层交换机或核心层交换机 之间。 ●交换机与服务器之间的连接:集群服务器采用多网卡与交换机连接提供集中 访问。

cisco+端口链路聚合配置

cisco 端口/链路聚合配置 2011-01-27 14:46:11 标签:csico channel 端口聚合链路聚合lacp 原创作品,允许转载,转载时请务必以超链接形式标明文章原始出处、作者信息和本声明。否则将追究法律责任。https://www.sodocs.net/doc/9e18240611.html,/715953/486648 环境: 两台cisco 3560-24PS通过g0/1和g0/2相连,两端口属于po1. pc1:192.168.1.10 vlan1 接SW1的fa0/1 pc2:192.168.1.11 vlan1 接SW2的fa0/1 拓扑: SW1 配置: Switch(config-if)#int range g0/1-g0/2 Switch(config-if-range)#switchport Switch(config-if-range)#channel-protocol lacp //以太信道使用链路聚合协议协商 Switch(config-if-range)#channel-group 1 mode active //链路聚合加入通道组1,并设置协商模式为active Switch(config-if-range)#switchport //端口设置为二层端口 Switch(config-if-range)#switchport trunk encapsulation dot1q //中继链路封装格式为dot1q Switch(config-if-range)# swit mode trunk //将 Switch(config-if-range)# swit trunk allow vlan all SW2配置(与SW1配置类似): Switch(config-if)#int range g0/1-g0/2 Switch(config-if-range)#switchport Switch(config-if-range)#channel-protocol lacp Switch(config-if-range)#channel-group 1 mode passive //链路聚合加入通道组1,并设置协商模式为passive或者on Switch(config-if-range)#switchport trunk encapsulation dot1q Switch(config-if-range)# swit mode trunk Switch(config-if-range)# swit trunk allow vlan all

详解双网卡绑定

Linux下的双网卡绑定bond0 em1 em2 一、什么是bonding Linux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余 二、bonding应用方向 1、网络负载均衡 对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是bonding 2、网络冗余 对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把多块网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡自动启用,并提供正常的服务,即:默认情况下只有一块网卡工作,其它网卡做备份 三、bonding实验环境及配置 1、实验环境 系统为:CentOS,使用2块网卡(em1、em2 ==> bond0)来实现bonding技术 2、bonding配置 第一步:先查看一下内核是否已经支持bonding 1)如果内核已经把bonding编译进内核,那么要做的就是加载该模块到当前内核;其次查看ifenslave该工具是否也已经编译 modprobe -l bond* 或者modinfo bonding modprobe bonding lsmod | grep 'bonding' echo 'modprobe bonding &> /dev/null' >> /etc/rc.local(开机自动加载bonding模块到内核) which ifenslave 注意:默认内核安装完后就已经支持bonding模块了,无需要自己手动编译 2)如果bonding还没有编译进内核,那么要做的就是编译该模块到内核 (1)编译bonding tar -jxvf kernel-XXX.tar.gz cd kernel-XXX

02-中兴设备实现链路聚合的配置

任务二:中兴设备实现链路聚合一、目的 掌握交换机的链路静态聚合和动态聚合的配置和使用 二、内容 静态聚合和动态聚合的配置 三、设备 3228 两台 直连网线两条 串口线一条 四、拓扑 交换机3228-1和交换机3228-2通过smartgroup端口相连,它们分别由2 个物理端口聚合而成。smartgroup的端口模式为trunk,承载VLAN10和 VLAN20。 五、配置步骤 1、静态聚合 下面以3228-1为例进行配置说明: /*关于VLAN的部分自己完成*/ /*创建Trunk组*/ ZXR10(config)#interface smartgroup1 【创建smartgroup端口,它有两个物理端口汇聚

而成】 ZXR10(config-if)#smartgroup mode on /*绑定端口到Trunk组*/ ZXR10(config)#interface fei_1/1 ZXR10(config-if)#smartgroup 1 mode on //设置聚合模式为静态【设为静态的,两台交换机也都必须都设为静态的‘ON’】 ZXR10(config)#interface fei_1/2 ZXR10(config-if)#smartgroup 1 mode on【将端口FE-1/1和FE-1/2设置为聚合端口放置在smartgroup 1并以静态方式工作】 /*修改smartgroup端口的VLAN链路类型*/ ZXR10(config)#interface smartgroup1 ZXR10(config-if)#switchport mode trunk ZXR10(config-if)#switchport trunk vlan 10 //把smartgroup1端口以trunk方式加入vlan10 ZXR(config-if)#switchport trunk vlan 20 //把smartgroup1端口以trunk方式加入vlan10 2、动态聚合 下面以3228-1为例进行配置说明: /*创建Trunk组*/ ZXR10(config)#interface smartgroup1 ZXR10(config-if)#smartgroup mode 802.3ad /*绑定端口到Trunk组*/ ZXR10(config)#interface fei_1/1 ZXR10(config-if)#smartgroup 1 mode active //设置聚合模式为active【配置动态链路聚合时,应当将一端端口的聚合模式设置为active,另一端设置为passive,或者两端都设置为active。】 ZXR10(config)#interface fei_1/2 ZXR10(config-if)#smartgroup 1 mode active /*修改smartgroup端口的VLAN链路类型*/ ZXR10(config)#interface smartgroup1 ZXR10(config-if)#switchport mode trunk

服务器双网卡绑定知识讲解

双网卡绑定实践 Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。本文主要介绍用Intel PROset实现双网卡绑定的方法。 英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。 测试环境: 测试机:R525 G3,Intel双千兆网卡 OS:windows 2003 server 企业版32位 终端:联想笔记本(用于测试服务器双网卡绑定效果) 步骤: 1、打开设备管理器,双击任意一块Intel 82576; 注意R525 G3默认有3块网卡,82574L是管理网口 2、在弹出的配置对话框中,选择分组页面。此时由于系统中的网卡没有进行绑定,因此此

时组下拉列表框是灰色不可选的,单击“新组”; 3、在弹出的“新组向导”对话框中,填写组的名称,下一步; 4、钩选需要绑定的两个网卡,下一步;

5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。这里我们选择容错,单击下一步; 6、完成向导;

7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1; 8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进行删除组和修改组的操作,单击“修改组”;

9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。 10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;

网卡链路聚合-简单设置实现双倍带宽

网卡链路聚合简单设置实现双倍带宽 电脑爱好者 2016-02-19 09:01 如今所有主板至少自带一个千兆以太网端口,有些高档主板带有两个端口。很多用户都不知道家用环境下双网卡主板如何充分利用两个网口,其实使用链路聚合(Link aggregation)就是一个好思路。 双倍带宽的链路聚合 链路聚合是指将两条或多条物理以太网链路聚合成一条逻辑链路。所以,如果聚合两个1Gb/s端口,就能获得2GB/s的总聚合带宽(图1)。聚合带宽和物理带宽并不完全相同,它是通过一种负载均衡方式来实现的。在用户需要高性能局域网性能的时候很有帮助,而局域网内如果有NAS则更是如此。比如说我们在原本千兆(1Gb/s)网络下PC和NAS之间的数据传输只能达到100MB/s左右,在链路聚合的方式下多任务传输速度可以突破200MB/s,这其实是一个倍增。 01 链路聚合原本只是一种弹性网络,而不是改变了总的可用吞吐量。比如说如果你通过一条2Gb聚合链路将文件从一台PC传输到另一台PC,就会发现总的最高传输速率最高为1Gb/s。然而如果开始传输两个文件,会看到聚合带宽带来的好处。

简而言之链路聚合增加了带宽但并不提升最高速度,但如果你在使用有多个以太网端口的NAS,NAS就能支持链路聚合,速度的提升是显而易见的。 目前家用的局域网环境不论是线缆还是网卡多数都停留在1Gb/s的水平,如果你想要真正的更高吞吐量改用更高的带宽比如10Gb/s网卡,但对于大多数家庭用户万兆网卡是不太可能的。就算我们使用普通单千兆网卡主板,通过安装外接网卡来增添一个网络端口就能实现效果。 链路聚合准备工作 首先你的PC要有两个以太网端口,想要连接的任何设备同样要有至少两个端口。除了双千兆(或一集成一独立)网卡的主板外,我们还需要一个支持链路聚合(LACP或802.1ad等)的路由器。遗憾的是很多家用路由器不支持链路聚合,选择时要注意路由器具体参数,或者干脆选择一个支持链路聚合的交换机。 除了硬件方面的要求,还需要一款支持链路聚合的操作系统。我们目前广泛使用的Windows 7并没有内置的链路聚合功能,一般微软要求我们使用Windows Server,但其实Windows 8.1和10已经提供了支持了。其实如果操作系统不支持可以考虑使用厂商提供的具有链路聚合功能的驱动程序,比如英特尔PROSet 工具。另外操作系统Linux和OS X都有内置的链路聚合功能,满足了所有先决条件后下面介绍如何实现。 测试平台 主板华硕Rampage IV 处理器英特尔酷睿i7-3970X 内存三星DDR3 32GB 硬盘三星850Pro 1TB(RAID 0) 交换机网件ProSAFE XS708E 10GbE 网卡双端口10GBASE-T P2E10G-2-T 线缆 CAT7

相关主题