搜档网
当前位置:搜档网 › 服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定与交换机链路聚合对接探讨
服务器多网卡绑定与交换机链路聚合对接探讨

服务器多网卡绑定

与交换机链路聚合对接探讨

-- 综合支持部王光明目前服务器的多网卡绑定技术在企业网中得到了广泛应用,常见为双网卡绑定,绑定后既能增加网络带宽,同时又能做相应的冗余,可以说是好处多多。因为linux 下的双网卡绑定无需第三方的驱动支持,所以一般企业都会使用linux 操作系统下自带的网卡绑定模式。当然现在网卡产商也会出一些针对windows 操作系统网卡管理软件来做网卡绑定(例如intel 网卡驱动)。

以下我们对linux 多网卡绑定的原理及交换机则需要作的配置进行探讨。

linux 有七种网卡绑定模式:

1.round robin

2.active-backup

3.load balancing (xor)

4.fault-tolerance (broadcast)

https://www.sodocs.net/doc/db552342.html,cp ( 802.3ad )

6.transmit load balancing

第一种:mode 0 Round robin

标准文档定义:

round-robin policy: Transmit packets in sequential order from the first available slave through the last. This modeprovides load bala ncing and fault tolera nee.

特点:

所有链路处于负载均衡状态,轮询方式往每条链路发送报文,基

于per packet 方式发送。

这模式的特点增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。

多张网卡采用同一个IP,同一个MAC工作。因为是per packet 方式,所以当数据到达对端可能会产生乱序。为了尽量避免乱序,此模式只允许相同速率的网卡进行绑定。

对应交换机的配置:

从实现原理上看,两条链路所使用的是同一个IP,同一个MAC 那么交换机记录表项时,必须将两个物理口当做一个口来记录,所以需要配置静态的链路聚合(port channel 或port trunk )来与服务器配合。

第二种:mode 1 active-backup

标准文档定义:

Active-backup policy: Only one slave in the bond is active. A different slave becomesactive if, and only if, the active slave fails. The bond ' s MAC address is externally visible on only one port (network adapter) to avoid confusing the

switch. This mode provides fault tolera nee. The primary opti on affects the behavior of this mode.

特点:

一个端口处于主状态,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,进行主备切换。

同一时间只有一条链路在工作,只能增强可靠性,无法增加链路带宽。对应交换机的配置:

从实现原理上来看,此机制类似我司(H3C的smart link ,当主链路故障时,可进行切换,因为线路故障导致了交换机接口down, 所以MAC表及ARP表自动刷新,无需交换机做配置。

同是也存在一种弊端,如果主链路故障,但没有导致交换机接口down,那么由于MAC表及ARF表不能立即刷新,数据转发将会出现一段时间的中断。第三种:mode 2 load balancing (xor)

标准文档定义:

XOR policy: Tran smit based on [(source MAC address XOR'd with destination

MACaddress) modulo slave count]. This selects the

sameslave for each destination MACaddress. This modeprovides load bala ncing and fault tolera nee.

特点:

该模式可理解为源MAC g的MAC hash同一条流总是从同一条路径上转发,解决了报文乱序的问题,并且一定程度上增加了带宽。与RR模式(mode 0) —样,多张网卡使用同一个IP同一个MAC

此种模式只适用于同一个二层网络中的相互访问,如果数据是通过网关转发,则不会有负载均衡的效果。

对应交换机的配置:

从实现原理上看,此模式与mode0—样,需要配置静态的链路聚

合(port channel 或port trunk )来与服务器配合。

第四种:mode 3 fault-tolerance (broadcast)

标准文档定义:

Broadcast policy: tran smits everyth ing on all slave in terfaces.

This mode provides fault tolera nee.

特点:

这种模式的特点是一个报文会复制多份往bond下的多个接口分

别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但

此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。对应交换机的配置:

由于此种模式不同链路上的报文完全相同,连接到同一交换机没有太大的意义,一般都会将两条链路连接到两台不同交换机上,达到

高可靠的效果,交换机上不需做配置

第五种:mode 4 lacp

标准文档定义:

IEEE 802.3ad Dyn amic link aggregati on. Creates aggregati on groups that share the samespeed and duplex sett in gs. Utilizes

all slaves in the active aggregator accord ing to the 802.3ad specification.

Pre-requisites: 1. Ethtool support in the base

drivers for retrieving.the speed and duplex of each slave. 2.

A switch that supports IEEE 802.3ad Dyn amic link

aggregation. Most switches will require some type of con figurati on to en able 802.3ad mode.

特点:

802.3ad模式是IEEE标准,也就是常说的LACP协议,与mode2

类似,采用逐流方式负载,可通过协议交互进行链路故障检测,避免

了mode2模式中因交换机接口不down导致的数据中断。对应交换机的配

置:

交换机上配置链路聚合,并且启用LACP协议。

第六种:mode3t ransmit load balancing

标准文档定义:

Adaptive transmit load balancing: channel bonding that does not

require any special switch support. The outgoing traffic is distributed according to the current load (computed relative to the speed) on each slave. Incoming traffic is received by

the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed receiving slave. Prerequisite: Ethtool support in the base drivers for

retriev ing the speed of each slave.

图解戴尔iDRAC服务器远程控制设置

图解戴尔iDRAC服务器远程控制设置 哦。 那么什么是iDRAC呢?iDRAC又称为Integrated Dell Remote?Access Controller,也就是集成戴尔远程控制卡,这是戴尔服务器的独有功能,iDRAC卡相当于是附加在服务器上的一计算机,可以实现一对一的服务器远程管理与监控,通过与服务器主板上的管理芯片BMC进行通信,监控与管理服务器的硬件状态信息。它拥有自己的系统和IP地址,与服务器上的OS无关。是管理员进行远程访问和管理的利器,戴尔服务器集成了iDRAC控制卡,我们就可以扔掉价格昂贵的KVM设备了。在戴尔第12代服务器中,iDRAC的版本升级到了iDRAC 7,下面我们将以戴尔PowerEdge R820为例,为您图解iDRAC的一步步设置。 戴尔服务器的iDRAC远程控制接口,在图的右下角,有“iDRAC”字样 iDRAC的网口在服务器的背面,一般都标注iDRAC的字样。在戴尔第12代服务器中,这个网口使用了1Gbps的网口,速度更快。一般情况下,iDRAC功能默认都是关闭,我们需要在BIOS里面启用,首先我们先重启计算机,然后进入BIOS,选择iDRAC Setting。 在BIOS中选择iDRAC设置 BIOS中iDRAC详细的设置列表 进入iDRAC Setting之后,我们看到很多详细的设置,一般情况下我们只要设置网络Network就可以了。 在BIOS中开启iDRAC功能 首先我们需要先启用iDRAC功能,戴尔PowerEdge R820的iDRAC接口采用了千兆网卡,所以我们在Enable NC选项中选择Enable,NC Selection选项中选择Dedicated(iDRAC7

服务器操作系统安装手册-0.2

项目名称 Linux系统安装配置规范 北京龙运通科技有限公司 版权所有

版本信息

主要内容 1.应用服务器安装 (5) 1.1基本配置信息 (5) 1.2分区 (5) 1.3防火墙 (5) 1.4语言 (5) 1.5时区 (5) 1.6root口令 (5) 1.7软件包 (5) 1.8Nagios (6) 2.系统配置 (7) 2.1修改系统打开最大文件句柄数量 (7) 2.2配置默认运行级别 (7) 2.3配置时间同步 (7) 2.4应用程序 (7) 2.5回收passwd命令权限 (7) 2.6系统添加用户规则 (8) 2.7网路配置 (8) 2.8关闭无用服务注意系统自启动级别里需要关闭 (9) 2.9建立运维操作员账号yw001 (9) 3.防止SSH暴力破解 (10)

4.设置GRUP密码 (12) 5.运维账号下获取日志脚本 (13) 6.备注 (14)

1.应用服务器安装 1.1基本配置信息 操作系统版本:redhatAS4update5 32bit 硬盘Raid类型为:1 1.2分区 /boot 100M / 20G /usr/local >=50G /var 20G /home 10G /tmp 10G Swap 8G 1 1.3防火墙 No Firewall Disable SELinux 1.4语言 English(USA), Chinese(P.R. of China) 1.5时区 Asia/Shanghai 1.6r o o t口令 安装时设置root默认口令为delldell 1.7软件包 X窗口系统默认38个 Gnome 桌面环境默认41个 图形化互联网只安装浏览器1个 开发工具默认+expect 58个 老的软件开发默认6个 系统工具默认+wireshark-gnome+ net-snmp-utils14个管理工具默认11个

多块网卡的负载平衡设置

多网卡负载均衡 NICExpress软件下载地址: https://www.sodocs.net/doc/db552342.html,/soft/36156.htm 注册码: 名称:https://www.sodocs.net/doc/db552342.html, 序列号: 381567 =============================================== 前言:市面上现在天生支持绑定功能的网卡不多,而且多是出身名门的高档服务器网卡,身价不菲,设置过程也比较专业,使用和维护都不简便。难道我等平头百姓,攥着几十元的廉价8139的兄弟们就无缘领略双网卡绑定的快感了吗?非也,今天我就教大家一招,只需一款小小的软件,就可以用普通的8139之类的网卡体验一把双网卡绑定的愉悦,这个软件就叫做“NICExpress”,可能行家们已经捂着嘴乐了,呵呵,笔者的出发点是给菜鸟兄弟们排难解惑,穷办法自娱自乐,说得过火的地方,大家不要见笑,DIY的乐趣就在于此啊。 朋友或许会问了,为什么要用双网卡呢?用双网卡有什么好处?所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x系列、3COM 服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设置将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡。 广告:d_text 多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。 OK,现在就手把手的教大家如何用50元来打造出双网卡的效果! 先下载软件(点击这里下载NIC Express Enterprise),这是最新版本4.0,只有2.15M,软件的兼容性已经做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市场上常见的各种网卡,百兆和千兆网卡都可以用来绑定,但是千万注意,最好用于绑定的网卡是完全相同的,至少也是基于同一芯片的,这样多块网卡才能合作得比较好。切记不要把10M网卡和100M网卡绑定在一起,那样根本起不到提升作用。 下载完软件,先不忙安装,咱们还是先准备好硬件。 第一部分:硬件安装 虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。 我取出“珍藏”的一对市场上随处可见的8139D10M/100M自适应网卡,市场价格25元一个,北京某厂的产品,做工还算精细,总成本50元人民币。

Windows 双网卡绑定

Windows 双网卡绑定 第一步:硬件连接与安装 首先进入BIOS设置将主板上集成的网卡打开,同时将独立网卡插入空闲的PCI插槽,用直通双绞线将两块网卡和宽带路由器的LAN口相连。重新启动Windows XP系统,自动为两块网卡安装好驱动程序。打开“网络连接”,会看到“本地连接”和“本地连接2”两个连接,而且这两个连接已经启用,硬件的连接与安装就算完成了。 第二步:绑定双网卡 下载并安装绑定双网卡的软件“NIC Express”(下载地址 https://www.sodocs.net/doc/db552342.html,/soft/36156.htm)。在安装软件的过程中保持默认值,一路点击“Next”后,最后点击“Demo”就可以完成安装。在将两块网卡绑定而虚拟出新设备的时候,会提示“未通过微软认证”,连续点击几次“仍然继续”按钮就可以继续安装。 弹出“绑定”窗口后(见图),在中间文本框中输入绑定后的连接名称(如“网卡绑定”),点击“Add”按钮将两块网卡加入到下面的“Assigned Adpaters”即可。接着进入NIC Express的配置界面,保持默认值就可完成安装。

网卡绑定 第三步:配置连接 进入“网络连接”窗口,会看到多出了一个“网卡绑定NIC Express Virtual Adapter”的连接,并且已启用。现在,这两块网卡已经成功绑定,可以右键点击“网卡绑定”,进行IP地址、子网、网关等参数的配置。将IP地址设置为与路由器默认IP在同一网段,网关设置为路由器默认IP地址。 测速 现在就可以进行BT下载的测试了。以用BitComet下载一个350MB的热门电影为例。打开数据流量窗口,可以从流量曲线监控图以及BitComet的“任务摘要”中看到两块网卡都在进行数据传输。双网卡绑定组的传输速率从80KB/s起步,最高达到123KB/s,两块网卡的平均传输速率比较稳定,下载350MB的电影耗时23分钟,平均下载速度为110KB/s。利用单网卡执行相同的下载任务,发

DELL服务器RAID配置详细教程

D E L L服务器R A I D配置教程 在启动电脑的时候按CTRL+R进入RAID设置见面如下图 名称解释: Disk?Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组 VD(Virtual?Disk):?虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical?Disk):?物理磁盘 HS:Hot?Spare?热备 Mgmt:管理 【一】创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD?Mgmt菜单(可以通过 CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create?New?VD”创建新虚拟磁盘 3、在RAID?Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。 4、确认RAID级别以后,按向下方向键,将光标移至Physical?Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic?Settings的VD?Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD?Size栏,VD?Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD?Mgmt创建(可以参考第13步,会有详细说明)。VD?Name根据需要设置,也可为空。 注:各RAID级别最少需要的硬盘数量,RAID0=1,RAID1=2,RAID5=3,RAID10=4,RAID50=6 5、修改高级设置,选择完VD?Size后,可以按向下方向键,或者Tab键,将光标移至Advanced?Settings处,按空格键开启(禁用)高级设置。如果开启后(红框处有X标志为开启),可以修改Stripe?Element?Size大小,以及阵列的Read?Policy 与Write?Policy,Initialize处可以选择是否在阵列配置的同时进行初始化。 高级设置默认为关闭(不可修改),如果没有特殊要求,建议不要修改此处的设置。

服务器多网卡捆绑

服务器多网卡捆绑 1、Linux系统 1-1、 RHEL5下双网卡绑定。 1-1-1、新增网卡 这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。 1-1-2、修改物理网卡配置

1-1-3、设置虚拟网卡模块 说明:miimon是用来进行链路监测的。比如:miimon=500,那么系统每500ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0-6 七种模式,常用的为0,1两种。 ?mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 ?mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。 例子中使用mode=0的配置来做负载均衡提高系统性能,增大并发带宽。

1-1-4、加载模块(重启系统后就不用手动再加载了) 1-1-5确认模块是否加载成功: 1-1-6、重启网络: 用外部同一网段的一台机器做ping试验,双网卡机器上手工拔掉其中任意一条网络线(或者使用ifup eth0|ifdown eth1),ping机器的终端应该没有中断信息,或者有一个”timeout”后很快恢复,则证明试验成功。 1-2、 RHEL6下双网卡绑定 1-2-1、新增网卡 这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。

详解双网卡绑定

Linux下的双网卡绑定bond0 em1 em2 一、什么是bonding Linux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余 二、bonding应用方向 1、网络负载均衡 对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是bonding 2、网络冗余 对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把多块网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡自动启用,并提供正常的服务,即:默认情况下只有一块网卡工作,其它网卡做备份 三、bonding实验环境及配置 1、实验环境 系统为:CentOS,使用2块网卡(em1、em2 ==> bond0)来实现bonding技术 2、bonding配置 第一步:先查看一下内核是否已经支持bonding 1)如果内核已经把bonding编译进内核,那么要做的就是加载该模块到当前内核;其次查看ifenslave该工具是否也已经编译 modprobe -l bond* 或者modinfo bonding modprobe bonding lsmod | grep 'bonding' echo 'modprobe bonding &> /dev/null' >> /etc/rc.local(开机自动加载bonding模块到内核) which ifenslave 注意:默认内核安装完后就已经支持bonding模块了,无需要自己手动编译 2)如果bonding还没有编译进内核,那么要做的就是编译该模块到内核 (1)编译bonding tar -jxvf kernel-XXX.tar.gz cd kernel-XXX

DELL服务器RAID配置详细教学教程

DELL服务器RAID配置教程 在启动电脑的时候按CTRL+R 进入RAID 设置见面如下图 名称解释: Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组VD(Virtual Disk):虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical Disk):物理磁盘 HS:Hot Spare 热备 Mgmt:管理 【一】创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N 切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘

3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。

4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。VD Name根据需要设置,也可为空。 注:各RAID级别最少需要的硬盘数量,RAID0=1,RAID1=2,RAID5=3,RAID10=4,RAID50=6 5、修改高级设置,选择完VD Size后,可以按向下方向键,或者Tab键,将光标移至Advanced Settings处,按空格键开启(禁用)高级设置。如果开启后(红框处有X标志为开启),可以修改Stripe Element Size大小,以及阵列的Read Policy与Write Policy,Initialize 处可以选择是否在阵列配置的同时进行初始化。 高级设置默认为关闭(不可修改),如果没有特殊要求,建议不要修改此处的设置。

提高服务器高可用性的双网卡绑定聚合技术的应用

提高服务器可用性的多网卡绑定聚合技术的应用 王和平 摘要:通过NICExpress软件对服务器多网卡进行捆绑聚合,以实现增加带宽、负载均衡、故障自动转移等,从而达到服务器的高可靠性和高可用性。 关键词:网卡聚合;服务器;高可用性 一、引言 现今几乎各行各业内部都建立了自己的服务器,由于服务器的特殊地位,它的可靠性、可用性及其I/O速度就显得非常的重要,保持服务器的高可用性和安全性是企业IT环境的重要指标,其中最重要的一点是服务器网络连接的高可用性。本文通过NICExpress软件,通过实际部署服务器多网卡,以提高服务器网络连接的可用性,配合实现构建高可靠性的网络环境。 二、网卡聚合绑定的特点 网卡绑定聚合就是通过软件将多块网卡绑定为一个IP地址,使用起来就好象在使用一块网卡。网卡是计算机和外部联系的主要通道。个人计算机默认安装一块网卡,服务器基本配置应该安装两块网卡。如果服务器上仅安装一块网卡,建议管理员至少增加一块网卡。一块为主网卡,其他为备用网卡,然后再通过网线将对应的网卡连接到同一交换机上。在服务器和交换机之间建立主连接和备用连接。通过NICExpress虚拟网卡软件将多块网卡绑定为一块网卡,或称之为虚拟网卡组,然后为虚拟网卡组设置一个唯一的IP地址。安装多块网卡后,通过多网卡并发方式传输数据,有利于提高网络传输效率,提高系统性能。一旦网卡组中的任何一个物理连接断开,比如网卡出现故障或链路断开,系统软件将自动监测连接状态,出现故障的网卡将自动切换到其他网卡的物理连接上。 在服务器中部署多块网卡聚合绑定后,将具备如下特点: 1.增加带宽。假如网卡的带宽100Mbps,那么理论上两块网卡聚合绑定后的带宽就是200Mbps,三块网卡聚合绑定后的带宽就是300Mbps。当然实际上的效果是不会这样简单相加的,不过经实际测试使用多个网卡绑定对于增加带宽,保持带宽的稳定性肯定是有益的。经过实际测量,三块带宽为100Mbps的网卡绑定后传输总带宽可以达到260Mbps。 2.均衡负载。多块网卡聚合绑定,可以形成网卡冗余阵列、分担负载。多块网卡被聚合绑定成“一块网卡”之后,网卡之间同步工作,对服务器的访问流量被均衡分配到不同网卡上,从而减轻每块网卡的网络负载,增强服务器的并发访问能力,服务器性能。 3.故障自动切换。如果服务器中的任一网卡出现故障,那么其他网卡将自动接管全部负载,过程是无缝的,数据传输不会中断。服务器中的系统服务或者应用不会中断,增强服务器的可用性。 三、网卡绑定聚合的原则 在服务器中部署多块网卡绑定聚合应该遵循以下原则: 1.聚合绑定的网卡型号应该相同、性能指标要一致,否则运行过程中不稳定,容易出错甚至蓝屏。 2.最大网卡数量原则。绑定的网卡越多,总带宽的增加效果似乎就越明显;但其实还应该考虑到网卡绑定聚合后在运行过程中会过多占用服务器资源,反过来会在一定程度影响服务器的运行速度。所以,管理员可以参考计算机配置和管理软件所支持的最大网卡数量。 3.所有的网卡建议连接到同一台交换机上。 四、部署过程 下面以NICExpress软件实际部署为例,说明多网卡的绑定聚合过程。

服务器双网卡绑定知识讲解

双网卡绑定实践 Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。本文主要介绍用Intel PROset实现双网卡绑定的方法。 英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。 测试环境: 测试机:R525 G3,Intel双千兆网卡 OS:windows 2003 server 企业版32位 终端:联想笔记本(用于测试服务器双网卡绑定效果) 步骤: 1、打开设备管理器,双击任意一块Intel 82576; 注意R525 G3默认有3块网卡,82574L是管理网口 2、在弹出的配置对话框中,选择分组页面。此时由于系统中的网卡没有进行绑定,因此此

时组下拉列表框是灰色不可选的,单击“新组”; 3、在弹出的“新组向导”对话框中,填写组的名称,下一步; 4、钩选需要绑定的两个网卡,下一步;

5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。这里我们选择容错,单击下一步; 6、完成向导;

7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1; 8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进行删除组和修改组的操作,单击“修改组”;

9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。 10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;

用双网卡,提高网速

用双网卡,提高网速! 大家好,我前几天在去联想玩的时候,看到他们工程师一台机装好几个网卡,速度还不错,我看一下,回到公司也到网上找了一些资料,双(多)网卡用一个IP的技术,对于各种内网服务器,和电脑、、、、很有用处,我把我在网上找到的资料整理了一下,大家看一看,也许对大家有好处! 所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x系列、3COM服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设置将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡,多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。先下载一个软件NIC Express 下载完软件,先不忙安装,咱们还是先准备好硬件。 第一部分:硬件安装 虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。 打开服务器机箱,把两块网卡拧在主板PCI插槽上!:》 硬件的安装很简单,我也不在这里说了。省的大家骂我:》 第二部分:设置调试 下面要进行设置及调试了,也就是要将这两块8139D廉价网卡,如同高档服务器网卡那样绑

图解戴尔iDRAC服务器远程控制设置

图解戴尔iDRAC服务器远程控制设置 对于远程的服务器,我们不能经常性的去机房维护,所以远程控制对于服务器来说就显得至关重要。那么你是用什么方式对服务器进行远程控制呢?远程桌面?还是KVM切换器?NO,你OUT了!如果你用的是戴尔的服务器,那么iDRAC功能不使用的话就是个极大的浪费哦。 那么什么是iDRAC呢?iDRAC又称为Integrated Dell Remote Access Controller,也就是集成戴尔远程控制卡,这是戴尔服务器的独有功能,iDRAC卡相当于是附加在服务器上的一计算机,可以实现一对一的服务器远程管理与监控,通过与服务器主板上的管理芯片BMC进行通信,监控与管理服务器的硬件状态信息。它拥有自己的系统和IP地址,与服务器上的OS无关。是管理员进行远程访问和管理的利器,戴尔服务器集成了iDRAC控制卡,我们就可以扔掉价格昂贵的KVM设备了。在戴尔第12代服务器中,iDRAC的版本升级到了iDRAC 7,下面我们将以戴尔PowerEdge R820为例,为您图解iDRAC的一步步设置。

戴尔服务器的iDRAC远程控制接口,在图的右下角,有“iDRAC”字样iDRAC的网口在服务器的背面,一般都标注iDRAC的字样。在戴尔第12代服务器中,这个网口使用了1Gbps的网口,速度更快。一般情况下,iDRAC功能默认都是关闭,我们需要在BIOS里面启用,首先我们先重启计算机,然后进入BIOS,选择iDRAC Setting。

在BIOS中选择iDRAC设置 BIOS中iDRAC详细的设置列表 进入iDRAC Setting之后,我们看到很多详细的设置,一般情况下我们只要设置网络Network就可以了。

dell服务器双网卡绑定与端口聚合

Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

dell服务器双网卡绑定与端口聚合

端口聚合(IEEE802.3ad Port Trunking) 可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM 网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡,交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking - IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad - 通过IEEE802.1Q-1988tagging,每个网卡最多支持64个VLANS,只支持braodcom或Alteon网卡

常用操作系统双网卡绑定方法

常用操作系统双网卡绑定方法 目录 一、RHEL 5.7 LINUX 下网卡绑定设置 (1) 二、RHEL6 LINUX 下网卡绑定设置 (3) 三、SUSE 10 下网卡绑定设置 (11) 四、SUSE 11 下网卡绑定设置 (16) 五、Windows 下网卡绑定设置 (22) 一、RHEL 5.7 LINUX 下网卡绑定设置 [root@Linux5 ~]# more /etc/sysconfig/network-scripts/ifcfg-bond0 # Broadcom Corporation NetXtreme II BCM5709S Gigabit Ethernet DEVICE=bond0 BOOTPROTO=static ONBOOT=yes IPADDR=10.96.19.207 NETMASK=255.255.255.0 GATEWAY=10.96.19.1 TYPE=Ethernet [root@Linux5 ~]# more /etc/sysconfig/network-scripts/ifcfg-eth0 # Broadcom Corporation NetXtreme II BCM5709S Gigabit Ethernet DEVICE=eth0 BOOTPROTO=none HWADDR=34:40:B5:BD:24:18 ONBOOT=yes MASTER=bond0 SLAVE=yes TYPE=Ethernet [root@Linux5 ~]# more /etc/sysconfig/network-scripts/ifcfg-eth1 # Broadcom Corporation NetXtreme II BCM5709S Gigabit Ethernet DEVICE=eth1 BOOTPROTO=none HWADDR=34:40:B5:BD:24:1A ONBOOT=yes MASTER=bond0

DELL服务器引导过程安装说明

DELL服务器系统安装引导 过程详解 针对现场有DELL的服务器坏掉后,需要重新引导的问题。很多同事很头痛,今天就来说说DELL服务器引导过程的具体步奏,一下都是单位内部装机过程的真实图片,现场引导过程中,如有与图片不一致的过程,还请多百度,多思考,有新的技术及时与大家分享,废话不多说了,直接上图。 首先找到DELL服务器自带的引导盘,见下图,准备工作做好。 图1 DELL引导盘 第一步:开机,打开光驱,将引导盘放入,狂按F8,等待数据读取,直到出现图2界面,该步骤是选择引导提语言,而不是选择操作系统的语言,不要误会。

图2 引导过程提示语言的选择 中文大家都懂的,下面的引导过程也就简单多了,所以该步骤非常重要。 第二步:选择好提示语言后,见到图3界面。该过程是配置网络参数的,一般情况下不用修改,点击取消,后提示是否退出向导,选择是,之后进入下一步即可。

图3网络参数配置 第三步:见到图4,选择最下面的“配置RAID和部署操作系统”,即开始整个系统引导过程。 图4 系统引导界面 第四步:首先要开始进入阵列配置,会见到图5界面,选择“首先配置RAID”,点击下一步即可。

图5开始配置阵列 第五步:图6是开始配置阵列的第一步,直接点击下一步即可。 图6 阵列配置第1步 第六步:图7为阵列级别的选择,一般选择“RAID 0”,点击下一步。具体每个级别的不同含义可参照https://www.sodocs.net/doc/db552342.html,/view/63423.htm自行学习。 图7 阵列配置第2步

第七步:图8是对磁盘数量的选择,如果有多块硬盘,下面会显示2个或2个以上磁盘名称,这时要在全选前面的方块打“√”,即选择所有硬盘,点击下一步。 图8 阵列配置第3步 第八步:图9是对虚拟磁盘进行命名,一般单位出去的电脑名称是“50”,含义可以是50所,也可以50盛同,现场装机可以自定义其他名称,例:qdlh。点击下一步进入图10。

如何让双网卡同时工作

如何让双网卡同时工作 NIC Express是一款功能非常独特的网络加速程序(点击下载NIC Express),可以绑定多块网卡以组成一块虚拟网卡,这样可以增加网络的带宽,当然前提是网卡的传输速率必须相同,这样才能在网络高负荷状态时实现负载均衡,否则是没有任何意义的。 程序的安装 接下来,就可以开始安装和配置NIC Express,这里需要注意的主要有3个方面: 1. 启用网络负载均衡 安装过程中会弹出一个提示对话框,这里是询问是否启用“Load Balancing function ali ty”,即网络负载均衡,这个功能可以在数据流量比较大时自动分配到各个网卡产上,以减轻单块网卡的压力,从而达到流畅的访问效果,因此这里当然是选择“Enabled”啦。 2. 虚拟网卡驱动程序的安装 安装过程的最后会报告说NIC Express的虚拟网卡驱动程序未曾通过Windows徽标测试,无法验证同Windows XP的相容性,询问是否继续,请单击“仍然继续”按钮继续安装。 3. 设置绑定的网卡 接下来,我们需要对绑定的网卡进行设置。计算机中安装的所有网卡将在主窗口的“A vailab le”列表框中出现,选中后单击“Add”按钮将其添加到下面的“Assigned Adapter s”列表框中即可完成添加操作。 默认设置下,绑定网卡组会使用“New Array”作为名称,当然也可以重新输入一个名称,然后会进入配置对话框,我们并不需要进行修改,直接使用默认设置即可。 网卡组的设置

进入“网络连接”窗口,可以看到本地连接图标已增加为3个,增加的那个“NIC Exp ress Virtual Miniport”就是绑定后的网卡组,它的使用与单一网卡完全相同,相当于一个单一的虚拟网卡,按照单一网卡的设置参数进行设置即可,可以为这块虚拟网卡设置IP 地址、子网掩码、网关等参数。 1. 设置监控内容 从开始菜单的程序组中找到“NIC Express Enterprise Edition”选项,这是NIC Exp ress软件自带的一个监控程序,在“setting”标签页中可以设置网卡流量的计量单位,这里提供了Packets/Sec、 Mbits/Sec、Kbits/Sec三种单位,默认使用Mbits/Sec(兆/每秒),我们只需要在“Graph Detail”中将默认的“By Protocol”重置为“By Incoming/Outgoi ng”即可。 如果你希望观察网卡组中每块网卡的流量或者整个组的流量,只要在“Select Device”中选择相应的设备即可。 2. 设置网卡绑定模式 切换到“Advanced”标签页,你可以在这里设置网卡绑定的工作模式,双网卡组默认工作在“NIC Express ELB”模式;如果需要关闭网络负载均衡功能,可以在这里选择“Load Balancing Disa ble”,其他的选项就不用设置了。 NIC Express可以通过绑定多块网卡以增加网络的带宽.需要注意的一点,在绑定网卡时,网卡的传输速率必须相同NIC Express才可以在网络高负荷状态做到负载均衡,否则是没有任何意义的。 我照着以上提示安装并设置,但是发现该软件不支持winXP,只能发现一个网卡。 不知哪位高手能提供一个新的软件解决绑定双网卡。

INTERNET双网卡绑定一个IP

INTERNET双网卡绑定一个IP 第一步:安装好所有网卡驱动程序,可以在网络-->适配器里看到如图一(当然可能你没有这么多的网卡,只看到两张或三张),其中有两张INTERNET 的网卡,因我这么服务器是HP的,网卡已经是OEM产品了,所以显示的是HP 10/100TX PCI FAST ETHERNET ADAPTER,如果你买的是原装INTERNET网卡,显示的应是INTETNET 10/100TX PCI FAST ETHERNET ADAPTER(以下不再另加说明)。 此主题相关图片如下: 第二步:选中[1] HP 10/100TX PCI ETHERNET ADAPTER BUS 0 ...点击属性(P)...出现另一对话框,如图二:

第三步:在Show all 8255x-based adapters前面的小方框点上小勾,如图三: 第四步:经过第三步,可以看到所有的INTERNET网卡都显示出来了,点击Adapter Teaming,出现图四:

第五步:从图四中可以看出,出现一个二块小网卡的标志,那就是网卡组,不过现在还没有加入网卡,图四的下部分是网卡组的功能,第一个是AFT ONLY 即容错功能,第二个是load balancing即网络平衡功能,第三个是fast etherchannel即加快网络速度功能,一般来说做无盘是为了加快速度,所以要选第三个。 第六步:选中图四网卡组下面的网卡,点击Move Up,得到如图五所示的配置:

第七步:图五中点OK确定,在网络-->适配器里可以看到多了一个适配器,如图六:

第八步:在图六中点协议,再选中TCP/IP通讯协议,如图七:

DELLM1000e刀箱的M6220网络交换机模块配置端口聚合计划实施组织

DELL M1000e刀箱M6220网络交换机 配置端口聚合实施方案 一、实施前查看机房环境 1、“宁夏一体化缴费平台应用推广项目”现场环境如下:在宁夏电力信通公司22楼机 房A16机柜有2台DELL M1000e刀箱,每台刀箱配置16把DELL M610刀片服务器。 上面1台DELL刀箱的CMC管理口登陆不了,报正在寻找IP的错误,刀箱上亮红灯,需要报dell 800。下面一台刀箱的CMC管理口可以正常登陆,刀箱亮蓝灯,是正常的。 两台DELL刀箱各启用了A网络交换模块的第一个网口,上联到一台H3C交换机上。B 网络交换模块没有使用,没有连网线上联到H3C交换机。 2、客户需求:两台DELL刀箱各启用了一个网络交换模块的第一个网口,上联到一台 H3C交换机上。为了防止网线被拔掉或者松滑,希望对32台DELL M610刀片服务器和2台DELL刀箱,配置刀箱上的网络交换机模块做双网卡绑定、链路聚合,防止单点故障。 3、首先确保要操作的这些设备没有硬件及操作系统方面的故障问题。如果有故障,建 议先解决现有的故障问题后再实施操作。 二、需要解决的问题 1、问题一、1台DELL刀箱(SN号:CJ625W1)的CMC管理口登陆不了,报正在寻找IP 的错误,刀箱上亮红灯。我已经帮客户张工寻求DELL 800提供电话支持技术,结果如下: 解决方案: A、DELL 800提供电话支持技术服务,可以尝试在刀箱前液晶面板上去手工设置CMC的管理口的默认IP 192.168.0.120。 B、DELL 800提供电话支持技术服务,在停业务的前提下,尝试插拔CMC管理模块,使其恢复正常,能寻找到默认IP 192.168.0.120。 C、DELL 800提供电话支持技术服务,刀箱M1000E上CMC的管理口都必须接到同一个网段,接上网线,有问题可以现场收集一下日志,反馈DELL 800。 开启CMC的Telnet功能: 在Chassis Overview - > Network -> Service 下的Telnet,把那个勾勾起来。

相关主题