搜档网
当前位置:搜档网 › 负载均衡和会话保持

负载均衡和会话保持

负载均衡和会话保持
负载均衡和会话保持

A10负载均衡和会话保持

在大多数的企业级应用中,客户端与服务器经常需要通过多次的交互才能完成一次事务处理或一笔交易。由于这些交互与用户的身份是紧密相关的,因此,与这个客户端相关的应用请求,往往需要转发至一台服务器完成,而不能被负载均衡器转发至不同的服务器上进行处理。为了实现这一机制,我们需要在负载均衡上配置会话保持(Session Persistence)机制,以确保客户端与应用系统之间的交互不会因为部署了负载均衡而发生问题。

实际上,会话保持机制与负载均衡的基本功能是完全矛盾的。负载均衡希望将来自客户端的连接、请求均衡的转发至后端的多台服务器,以避免单台服务器负载过高;而会话保持机制却要求将某些请求转发至同一台服务器进行处理。因此,在实际的部署环境中,我们要根据应用环境的特点,选择适当的会话保持机制。

连接和会话的区别

在介绍会话保持技术之前,我们必须先花点时间弄清楚一些概念:什么是连接(Connection)、什么是会话(Session),以及这二者之间的区别。

需要特别强调的是,如果我们仅仅是谈论负载均衡,会话和连接往往具有相同的含义。但是,如果我们和开发人员沟通这些术语时,这两个术语却具有截然不同的含义。希望广大读者能够注意这其中的区别。在本文中,我想着重说明的是开发人员眼中的连接及会话的含义。

通常,在普通的客户端或服务器上,我们把具有相同[源地址:端口],和相同[目的地址:端口]的数据包定义为一个连接。下表是Windows系统中用命令 netstat –an输出的部分系统连接状态。

1.C:\>netstat -an

2.

3.活动连接

4.

5.协议本地地址外部地址状态

6.

7....<省略部分输出内容>...

8. TCP 172.31.20.53:47669 122.225.67.240:80 ESTABLISHED

9. TCP 172.31.20.53:47670 122.225.67.240:80 ESTABLISHED

10. TCP 172.31.20.53:47671 122.228.243.240:80 ESTABLISHED

11. TCP 172.31.20.53:47672 110.75.34.138:80 TIME_WAIT

12. TCP 172.31.20.53:47673 110.75.34.138:80 TIME_WAIT

13. TCP 172.31.20.53:47674 110.75.34.138:80 TIME_WAIT

14. TCP 172.31.20.53:47675 122.225.67.240:80 ESTABLISHED

15. TCP 172.31.20.53:47676 122.225.67.240:80 ESTABLISHED

16. TCP 172.31.20.53:47677 122.228.243.240:80 ESTABLISHED

17. TCP 172.31.20.53:47679 110.75.24.105:80 ESTABLISHED

18. TCP 172.31.20.53:47681 122.225.67.240:80 ESTABLISHED

19. TCP 172.31.20.53:47682 122.225.67.240:80 ESTABLISHED

20. TCP 172.31.20.53:47683 60.191.143.240:80 ESTABLISHED

21. TCP 172.31.20.53:47684 60.191.143.240:80 ESTABLISHED

22. TCP 192.168.1.4:18231 203.208.46.29:443 CLOSE_WAIT

23....<省略部分输出内容>...

对于负载均衡来说,情况则稍微发生了一些变化。负载均衡会将来自相同[源IP:端口],发送到相同[目的IP:端口]的数据包,通过NAT技术做一些转换后,转发至后端的某台固定的服务器。如下表所示,虽然两个TCP连接具有相同的源地址,但源端口不同,AX负载均衡仍然将其识别为两个不同的连接,并且转发至两台不同的服务器进行处理。

1.AX#show session

2....<省略部分输出内容>...

3.

4.Prot Forward Source Forward Dest Reverse Source

Reverse Dest Age Hash

5.--------------------------------------------------------------------

---------------------------------------

6.Tcp 103.104.15

7.122:1619 61.22.215.151:80 172.30.2.83:80

103.104.157.122:1619 60 1

7.

8.Tcp 103.104.157.122:1621 61.22.215.151:80 172.30.2.84:80

103.104.157.122:1621 120 3

9.

10....<省略部分输出内容>...

对于同一个连接中的数据包,负载均衡会将其进行NAT转换后,转发至后端固定的服务器进行处理,这是负载均衡最基本、最原始的功能。负载均衡系统内部会专门有一张表来记录这些连接的状况,包括:[源IP:端口]、[目的IP:端口]、[服务器IP:端口]、空闲超时时间(Idle Timeout)等等。这里需要特别说明一下超时时间的意义和定义。

由于负载均衡内部记录连接状态的这张表需要消耗系统的内存资源,因此,这张表不可能无限大,所有厂家都会有一定的限制。这张表的大小一般称之为最大并发连接数,也就是系统同时能够容纳的连接数量。考虑到建立这些连接的客户端或服务器会发生一些异常状况,导致这些连接不能被正常终结掉,因此,负载均衡的当前连接状态表项中,设计了一个空闲超时时间的参数。这个参数定义为,当该连接在一定时间内无流量通过时,负载均衡会自动删除该连接条目,释放系统资源。在AX中,这个空闲超时时间一般设置为120秒。也就是说,如果在120秒内,对于某个连接,AX没有收到任何来自客户端或服务器端的数据包,AX会主动删除该连接,以释放系统资源。

之所以在这里强调这个参数,是为了和后面介绍会话保持机制时提到的会话保持时间有所区别。

理解了连接的概念,那么对于会话的概念就会比较容易理解一些。在开发人员眼中,会话一般是指从用户登录应用系统,进行事务处理,直至退出应用系统的整个过程。因此,对于相同的会话,客户端可能会建立多个连接进行处理。如果在客户端和服务器之间部署了负载均

衡设备,很有可能,这多个连接会被转发至不同的服务器进行处理。如果服务器之间没有会话信息的同步机制,会导致其他服务器无法识别用户身份,造成用户在和应用系统发生交互时出现异常。常见的异常场景包括:

客户端输入了正确的用户名和口令,但却反复跳到登录页面,要求用户进行登录,

客户端放入购物篮的物品丢失。

因此,会话保持机制的意义就在于,确保将来自相同客户端的请求,转发至后端相同的服务器进行处理。换句话说,就是将客户端与服务器之间建立的多个连接,都发送到相同的服务器进行处理。

常见的会话保持机制介绍

源地址会话保持

源地址会话保持利用客户端的源地址信息,负载均衡会将所有来源于相同源IP的连接认为是相同的客户端,并将这些连接转发至相同的服务器进行处理。当我们启用了源地址会话保持机制后,AX负载均衡在收到新的连接请求时,会首先查询系统的源地址会话保持表,如果查询到该IP地址对应的服务器表项,则根据当前表项对应的服务器建立连接,如果没有查询到该源IP对应的服务器,则根据当前配置的算法选择服务器。同时,会将当前连接对应的服务器记入源地址会话保持表。这样,当该源IP有新的连接请求时,就会根据该表项选择后端的服务器资源。

源地址会话保持机制是一种非常简单但又十分高效的会话保持机制。但是,正是这种简单,又造成负载均衡无法很准确的识别客户端,造成后端服务器负载分配不均匀。尤其是当大量的客户端共享同一个NAT地址访问服务器资源时,会造成某台服务器的负载分配过高。同时,

由于负载均衡系统内部保存会话保持表也会占用一定的资源,因此,当客户端数量巨大的时候,可能会造成会话保持表被耗尽的问题。

Cookie会话保持

Cookie会话保持是利用HTTP协议中的cookie功能来实现会话保持功能。当客户端的请求中带有负载均衡设置的cookie信息,则负载均衡根据cookie中的信息来选择服务器;当客户端的请求中没有cookie信息,则负载均衡按照算法选择服务器,同时,在服务器响应的response头部中,插入cookie信息。这样,当该客户端再次访问服务器时,可以确保该客户端的请求会被转发到相同的服务器进行处理。

相较于源地址会话保持机制来说,cookie会话保持能够更加精准的识别客户端,避免了大量客户端共享同一个NAT地址访问服务器资源时,源地址会话保持造成的单台服务器负载过高的问题。此外,负载均衡通过分析客户端请求中的cookie信息来决定服务器选择,因此,负载均衡无需在系统中维护会话表项,因此,没有会话表项数量的限制。但是,cookie会话保持机制却比源地址会话保持存在更多的限制。

首先,cookie会话保持只能够在B/S架构的应用中使用,也就是说,cookie会话保持只能够工作在HTTP协议下。道理很简单——非HTTP协议并不支持cookie插入。

其次,如果浏览器不支持cookie,即便配置了cookie会话保持机制,cookie会话保持机制也不会起到应有的效果。

第三,由于cookie会话保持机制中,需要根据负载均衡当前的系统时间来计算一个过期时间,并把该时间设置为cookie失效的时间,因此,负载均衡的系统时间不能有太大误差,否则,会话保持机制有可能会失效。

对于第三个问题,我们考虑一种场景,当负载均衡的系统时间比正常的时钟慢20分钟,而会话保持的超时时间设置为15分钟,则客户端在收到负载均衡插入的cookie后,会认为该cookie已经失效,则在后续的http请求中,不会带有负载均衡插入的用于会话保持的cookie。注意:这里的cookie是A10插入的,不是应用服务器返回HTTP响应时插入的!!

在用loadrunner测试A10负载均衡功能和性能时,需要增加A10插入的的cookie。

在录制LR脚本时,可以先打开应用页面,然后在页面上进行几次其他操作,然后录制好的脚本里会自动加上cookie,包括应用返回的和A10插入的:

web_add_cookie("sto-id-10531=EOMKJDAKCJCD; DOMAIN=120.210.236.238");

web_add_cookie("PHPSESSID=7d52ff757b92; DOMAIN=120.210.236.238");

测试时保留A10插入的cookie(sto-id-10531)就可以进行负载均衡测试。

由于A10上插入cookie后,会有时效性,因此在A10上把过期时间改大并且要尽快测试;另外,A10插入的cookie中"sto-id-10531=EOMKJDAKCJCD"的值不是会话级的(不是每个会话对应一个值,而是可以看成服务器主机的标识),每个主机对应一个sto-id-10531的值。首次访问请求到达A10时,A10会根据一系列负载均衡策略选择服务器主机,并且在响应时插入cookie(即插入主机标识),后续该客户端再发送请求时,会带上这个cookie(主机标识),A10收到后直接按照这个标识进行转发。

简单总结一下这两种常见的会话保持机制的优缺点:

在下一篇文章中,我们仍然以A10的AX负载均衡为例,向大家介绍在具体的场景中,如何配置会话保持机制,在实现会话保持的基础上,又能更加均衡的负载客户端请求。

集群HA负载均衡技术

实用标准文案 NLB 、HA、HPC集群、双机、负载均衡、 1.1什么是集群)就是一组计算机,它们作为一个整体向用户cluster 简单的说,集群()。一提供一组网络资源。这些单个的计算机系统就是集群的节点(node她们看/个理想的集群是,用户从来不会意识到集群系统底层的节点,在他来,集群是一个系统,而非多个计算机系统。并且集群系统的管理员可以随意增加和删改集群系统的节点。集群系统的主要优点:1.2 高可扩展性:(1):集群中的一个节点失效,它的任务可传递给其他节点。可高可用性HA(2) 以有效防止单点失效。 高性能:负载平衡集群允许系统同时接入更多的用户。(3) 高性价比:可以采用廉价的符合工业标准的硬件构造高性能的系统。(4) 集群系统的分类2.1 虽然,根据集群系统的不同特征可以有多种分类方法,但是一般把集群系统 分为两类:集群。,、高可用(High Availability)集群简称HA(1) 这类集群致力于提供高度可靠的服务。就是利用集群系统的容错性对外提供 小时不间断的服务,如高可用的文件服务器、数据库服务等关键应用。7*24负载均衡集群:使任务可以在集群中尽可能平均地分摊不同的计算机进行处 精彩文档. 实用标准文案 理,充分利用集群的处理能力,提高对任务的处理效率。以提供更加高效稳

定的服务。在实际应用中这几种集群类型可能会混合使用, 高就会包含高可用的网络文件系统、如在一个使用的网络流量负载均衡集群中,可用的网络服务。集群,也HPC(High Perfermance Computing)集群,简称(2)、性能计算称为科学计算集群。 在这种集群上运行的是专门开发的并行应用程序,它可以把一个问题的数据 从而可以分布到多台的计算机上,利用这些计算机的共同资源来完成计算任务,解决单机不能胜任的工作(如问题规模太大,单机计算速度太慢)。 如天气预报、这类集群致力于提供单个计算机所不能提供的强大的计算能力。石油勘探与油藏模拟、分子模拟、生物计算等。(HA) 3.1 什么是高可用性和可维护(reliability)计算机系统的可用性(availability)是通过系统的可靠性 来度量系统(MTTF)来度量的。工程上通常用平均无故障时间性(maintainability)于是可用性被定义)来度量系统的可维护性。,用平均维修时间(MTTR的可靠性MTTF/ (MTTF+MTTR)*100% 为:负载均衡服务器的高可用性主服务器和备份机上都需要建立一个备份机。为了屏蔽负载均衡服务器的失效,”这样的信息来监I am alive监控程序,通过传送诸如“运行High Availability它就接管当备份机不能在一定的时间内收到这样的信息时,控对方的运行状况。I am 并继续提供服务;当备份管理器又从主管理器收到“主服务器的服务IP精彩文档.实用标准文案 地址,这样的主管理器就开开始再次进IPalive”这样的信息是,它就释放服务行集群管理的工作了。为在主服务器失效的情况下系统能正常工作,我们在主、备份机之间实现负载集群系统配置信息的同步与备份,保持二者系统的基本一

实验10 配置网络负载均衡路由

试验九:配置网络负载均衡路由1 实验目的: 通过添加到某个网段的两条静态路由将会实现网络负载均衡。 2 网络拓扑 3 试验环境: PC的IP地址和路由器的IP地址以及静态路由已经配置完毕。 4 试验要求 在这个网络中,只需要192.168.1.0/24能够和和192.168.6.0/24通信。 你需要配置Router8到192.168.6.0/24网段的两条静态路由。 你需要配置Router5到192.168.1.0/24网段的两条静态路由。 在router2、3、4添加到192.168.1.0/24和192.168.6.0/24网段静态路由。 在router1、0、7添加到192.168.1.0/24和192.168.6.0/24网段静态路由。

5 基本配置步骤 5.1在Route2上 Router#confi t Router(config)#ip route 192.168.1.0 255.255.255.0 192.168.2.1 Router(config)#ip route 192.168.6.0 255.255.255.0 192.168.3.2 5.2在Router3上 Router#confi t Router(config)#ip route 192.168.1.0 255.255.255.0 192.168.3.1 Router(config)#ip route 192.168.6.0 255.255.255.0 192.168.4.2 5.3在Router4上 Router#conf t Router(config)#ip route 192.168.1.0 255.255.255.0 192.168.4.1 Router(config)#ip route 192.168.5.0 255.255.255.0 192.168.5.2 5.4在Router1上 Router#confi t Router(config)#ip route 192.168.1.0 255.255.255.0 192.168.0.2 Router(config)#ip route 192.168.6.0 255.255.255.0 192.168.9.1 5.5在Router0上 Router#confi t Router(config)#ip route 192.168.1.0 255.255.255.0 192.168.9.2 Router(config)#ip route 192.168.6.0 255.255.255.0 192.168.8.1 5.6在Router7上 Router#confi t Router(config)#ip route 192.168.1.0 255.255.255.0 192.168.8.2

网关冗余和负载均衡VRRP

网关冗余和负载均衡VRRP 一、交换机SW1(R6)交换机SW2(R4)配置 R6>enable R6#conf t R6(config)#hostname SW1 SW1 (config)#int fa0/0 SW1 (config-if)#no shutdown SW1 (config-if)#exit SW1 (config)#int fa0/1 SW1 (config-if)#no shutdown SW1 (config-if)#exit SW1 (config)#int fa0/2

SW1 (config-if)#no shutdown SW1 (config-if)#exit SW1#vlan database SW1 (vlan)#vlan 2 VLAN 2 added: Name: VLAN0002 SW1 (vlan)#exit SW1#conf t SW1 (config)#int range fa0/0 - 2 SW1 (config-if-range)#switchport access vlan 2 SW1 (config-if-range)#exit SW1 (config-if-range)#exit SW1(config)#int vlan 2 SW1(config-if)#ip add 192.168.13.2 255.255.255.0 SW1(config-if)#no shutdown SW1(config-if)#exit SW1(config)#exit SW1# R4>enable R4#conf t R4(config)#host SW2 SW2(config)#int fa0/1 SW2(config-if)#no shutdown SW2(config-if)#exit SW2(config)#int f0/0 SW2(config-if)#no shutdown SW2(config-if)#exit SW2(config)#exit SW2#vlan database SW2(vlan)#vlan 2 VLAN 2 added: Name: VLAN0002 SW2(vlan)#exit SW2#conf t SW2(config)#int range fa0/0 - 1 SW2(config-if-range)#switchport access vlan 2 SW2(config-if-range)#end SW2# 二、配置PC1(R7)PC2(R5) R7>enable R7#conf t

负载均衡设备主要参数配置说明

(初稿)Radware负载均衡设备 主要参数配置说明 2007年10月 radware北京代表处

目录 一、基本配置 (3) 1.1 Tuning配置 (3) 1.2 802.1q配置 (4) 1.2 IP配置 (6) 1.3 路由配置 (7) 二、四层配置 (8) 2.1 farm 配置 (8) 2.2 servers配置 (10) 2.3 Client NAT配置 (11) 2.4 Layer 4 Policy配置 (16) 三、对服务器健康检查 (18) 3.1 基于连接的健康检查 (19) 3.2 高级健康检查 (21) 四、常用系统命令 (25)

一、基本配置 Radware负载均衡设备的配置主要包括基本配置、四层配置和对服务器健康检查配置。注:本文档内容,用红色标注的字体请关注。 1.1 Tuning配置 Rradware设备tuning table的值是设备工作的环境变量,在做完简单初始化后建议调整tuning值的大小。调整完tuning table后,强烈建议,一定要做memory check,系统提示没有内存溢出,才能重新启动设备,如果系统提示内存溢出,说明某些表的空间调大了,需要把相应的表调小,然后,在做memory check,直到没有内存溢出提示后,重启设备,使配置生效。 点击service->tuning->device 配置相应的环境参数,

在做一般的配置时主要调整的参数如下:Bridge Forwarding Table、IP Forwarding Table、ARP Forwarding Table、Client Table等。 Client NAT Addresses 如果需要很多网段做Client NAT,则把Client NAT Addresses 表的值调大。一般情况下调整到5。 Request table 如果需要做基于7层的负载均衡,则把Request table 的值调大,建议调整到10000。 1.2 80 2.1q配置 主要用于打VLAN Tag Device->Vlan Tagging

Tomcat集群与负载均衡

Tomcat集群与负载均衡(转载) 在单一的服务器上执行WEB应用程序有一些重大的问题,当网站成功建成并开始接受大量请求时,单一服务器终究无法满足需要处理的负荷量,所以就有点显得有点力不从心了。另外一个常见的问题是会产生单点故障,如果该服务器坏掉,那么网站就立刻无法运作了。不论是因为要有较佳的扩充性还是容错能力,我们都会想在一台以上的服务器计算机上执行WEB应用程序。所以,这时候我们就需要用到集群这一门技术了。 在进入集群系统架构探讨之前,先定义一些专门术语: 1. 集群(Cluster):是一组独立的计算机系统构成一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。 2. 负载均衡(Load Balance):先得从集群讲起,集群就是一组连在一起的计算机,从外部看它是一个系统,各节点可以是不同的操作系统或不同硬件构成的计算机。如一个提供Web服务的集群,对外界来看是一个大Web服务器。不过集群的节点也可以单独提供服务。 3. 特点:在现有网络结构之上,负载均衡提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。集群系统(Cluster)主要解决下面几个问题: 高可靠性(HA):利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。 高性能计算(HP):即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析,化学分析等。 负载平衡:即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。 目前比较常用的负载均衡技术主要有: 1. 基于DNS的负载均衡 通过DNS服务中的随机名字解析来实现负载均衡,在DNS服务器中,可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中一个地址。因此,对于同一个名字,不同的客户机会得到不同的地址,他们也就访问不同地址上的Web服务器,从而达到负载均衡的目的。 2. 反向代理负载均衡(如Apache+JK2+Tomcat这种组合) 使用代理服务器可以将请求转发给内部的Web服务器,让代理服务器将请求均匀地转发给多台内部Web服务器之一上,从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web服务器,而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式。 3. 基于NAT(Network Address Translation)的负载均衡技术(如Linux Virtual Server,简称LVS)

VRRP技术实现网络的路由冗余和负载均衡

1 问题的提出 随着网络应用的不断深入和发展,用户对网络可靠性的需求越来越高。网络中路由器运行动态路由协议如RIP、OSPF可以实现网络路由的冗余备份,当一个主路由发生故障后,网络可以自动切换到它的备份路由实现网络的连接。但是,对于网络边缘终端用户的主机运行一个动态路由协议来实现可靠性是不可行的。一般企业局域网通过路由器连接外网,局域网内用户主机通过配置默认网关来实 现与外部网络的访问。 图1 配置默认网关 如图一所示,内部网络上的所有主机都配置了一个默认网关 (GW:192.168.1.1),为路由器的E thernet0接口地址。这样,内网主机发出的目的地址不在本网段的报文将通过默认网关发往RouterA,从而实现了主机与外部网络通信。路由器在这里是网络中的关键设备,当路由器RouterA出现故障时,局域网将中断与外网的通信。对于依托网络与外部业务往来频繁的企业以及公司的分支机构与总部的联系、银行的营业网点与银行数据中心的连接等方面的应用将因此受到极大的影响。为提高网络的可靠性,在网络构建时,往往多增设一台路由器。但是,若仅仅在网络上设置多个路由器,而不做特别配置,对于目标地址是其它网络的报文,主机只能将报文发给预先配置的那个默认网关,而不能实现故障情况下路由器的自动切换。VRRP虚拟路由器冗余协议就是针对上述备份问题而提出,消除静态缺省路由环境中所固有的缺陷。它不改变组网情况,只需要在相关路由器上配置极少几条命令,在网络设备故障情况下不需要在主机上做任何更改配置,就能实现下一跳网关的备份,不会给主机带来任何负担。 2 VRRP技术分析

VRRP(Virtual Router Redundancy Protocol)是一种LAN接入设备容错协议,VRRP将局域网的一组路由器(包括一个Master即活动路由器和若干个Backup 即备份路由器)组织成一个虚拟路由器,称之为一个备份组,如图2所示。 图2 虚拟路由器示意图 VRRP将局域网的一组路由器,如图二中的RouterA和RouterB 组织成一个虚拟的路由器。这个虚拟的路由器拥有自己的IP地址192.168.1.3,称为路由器的虚拟IP地址。同时,物理路由器RouterA ,RouterB也有自己的IP地址(如RouterA的IP地址为192.168.1.1,RouterB的IP地址为192.168.1.2)。局域网内的主机仅仅知道这个虚拟路由器的IP地址192.168.1.3,而并不知道备份组内具体路由器的IP地址。在配置时,将局域网主机的默认网关设置为该虚拟路由器的IP地址192.168.1.3。于是,网络内的主机就通过这个虚拟的路由器来与其它网络进行通信,实际的数据处理由备份组内Master路由器执行。如果备份组内的Master路由器出现故障时,备份组内的其它Backup路由器将会接替成为新的Master,继续向网络内的主机提供路由服务。从而实现网络内的主机不间断地与外部网络进行通信。 VRRP通过多台路由器实现冗余,任何时候只有一台路由器为主路由器,其他的为备份路由器。路由器间的切换对用户是完全透明的,用户不必关心具体过程,只要把缺省路由器设为虚拟路由器的IP地址即可。路由器间的切换过程: ⑴ VRRP协议采用竞选的方法选择主路由器。比较各台路由器优先级的大小,优先级最大的为主路由器,状态变为Master。若路由器的优先级相同,则比较网络接口的主IP地址,主IP地址大的就成为主路由器,由它提供实际的路由服务。 ⑵ 主路由器选出后,其它路由器作为备份路由器,并通过主路由器发出的VRRP报文监测主路由器的状态。当主路由器正常工作时,它会每隔一段时间发送一个VRRP组播报文,以通知备份路由器,主路由器处于正常工作状态。如果

负载均衡和会话保持

A10负载均衡和会话保持 在大多数的企业级应用中,客户端与服务器经常需要通过多次的交互才能完成一次事务处理或一笔交易。由于这些交互与用户的身份是紧密相关的,因此,与这个客户端相关的应用请求,往往需要转发至一台服务器完成,而不能被负载均衡器转发至不同的服务器上进行处理。为了实现这一机制,我们需要在负载均衡上配置会话保持(Session Persistence)机制,以确保客户端与应用系统之间的交互不会因为部署了负载均衡而发生问题。 实际上,会话保持机制与负载均衡的基本功能是完全矛盾的。负载均衡希望将来自客户端的连接、请求均衡的转发至后端的多台服务器,以避免单台服务器负载过高;而会话保持机制却要求将某些请求转发至同一台服务器进行处理。因此,在实际的部署环境中,我们要根据应用环境的特点,选择适当的会话保持机制。 连接和会话的区别 在介绍会话保持技术之前,我们必须先花点时间弄清楚一些概念:什么是连接(Connection)、什么是会话(Session),以及这二者之间的区别。 需要特别强调的是,如果我们仅仅是谈论负载均衡,会话和连接往往具有相同的含义。但是,如果我们和开发人员沟通这些术语时,这两个术语却具有截然不同的含义。希望广大读者能够注意这其中的区别。在本文中,我想着重说明的是开发人员眼中的连接及会话的含义。

通常,在普通的客户端或服务器上,我们把具有相同[源地址:端口],和相同[目的地址:端口]的数据包定义为一个连接。下表是Windows系统中用命令netstat–an输出的部分系统连接状态。 1.C:\>netstat-an 2. 3.活动连接 4. 5.协议本地地址外部地址状态 6. 7....<省略部分输出内容>... 8.TCP172.31.20.53:47669122.225.67.240:80ESTABLISHED 9.TCP172.31.20.53:47670122.225.67.240:80ESTABLISHED 10.TCP172.31.20.53:47671122.228.243.240:80ESTABLISHED 11.TCP172.31.20.53:47672110.75.34.138:80TIME_WAIT 12.TCP172.31.20.53:47673110.75.34.138:80TIME_WAIT 13.TCP172.31.20.53:47674110.75.34.138:80TIME_WAIT 14.TCP172.31.20.53:47675122.225.67.240:80ESTABLISHED 15.TCP172.31.20.53:47676122.225.67.240:80ESTABLISHED 16.TCP172.31.20.53:47677122.228.243.240:80ESTABLISHED 17.TCP172.31.20.53:47679110.75.24.105:80ESTABLISHED 18.TCP172.31.20.53:47681122.225.67.240:80ESTABLISHED 19.TCP172.31.20.53:47682122.225.67.240:80ESTABLISHED 20.TCP172.31.20.53:4768360.191.143.240:80ESTABLISHED 21.TCP172.31.20.53:4768460.191.143.240:80ESTABLISHED 22.TCP192.168.1.4:18231203.208.46.29:443CLOSE_WAIT 23....<省略部分输出内容>... 对于负载均衡来说,情况则稍微发生了一些变化。负载均衡会将来自相同[源IP:端口],发送到相同[目的IP:端口]的数据包,通过NAT技术做一些转换后,转发至后端的某台固定的服务器。如下表所示,虽然两个TCP连接具有相同的源地址,但源端口不同,AX负载均衡仍然将其识别为两个不同的连接,并且转发至两台不同的服务器进行处理。 1.AX#show session 2....<省略部分输出内容>... 3.

数据库负载均衡解决方案

双节点数据库负载均衡解决方案 问题的提出? 在SQL Server数据库平台上,企业的数据库系统存在的形式主要有单机模式和集群模式(为了保证数据库的可用性或实现备份)如:失败转移集群(MSCS)、镜像(Mirror)、第三方的高可用(HA)集群或备份软件等。伴随着企业的发展,企业的数据量和访问量也会迅猛增加,此时数据库就会面临很大的负载和压力,意味着数据库会成为整个信息系统的瓶颈。这些“集群”技术能解决这类问题吗?SQL Server数据库上传统的集群技术 Microsoft Cluster Server(MSCS) 相对于单点来说Microsoft Cluster Server(MSCS)是一个可以提升可用性的技术,属于高可用集群,Microsoft称之为失败转移集群。 MSCS 从硬件连接上看,很像Oracle的RAC,两个节点,通过网络连接,共享磁盘;事实上SQL Server 数据库只运行在一个节点上,当出现故障时,另一个节点只是作为这个节点的备份; 因为始终只有一个节点在运行,在性能上也得不到提升,系统也就不具备扩展的能力。当现有的服务器不能满足应用的负载时只能更换更高配置的服务器。 Mirror 镜像是SQL Server 2005中的一个主要特点,目的是为了提高可用性,和MSCS相比,用户实现数据库的高可用更容易了,不需要共享磁盘柜,也不受地域的限制。共设了三个服务器,第一是工作数据库(Principal Datebase),第二个是镜像数据库(Mirror),第三个是监视服务器(Witness Server,在可用性方面有了一些保证,但仍然是单服务器工作;在扩展和性能的提升上依旧没有什么帮助。

如何实现路由器线路负载均衡

如何实现路由器线路负载均衡 我想让这些连接到互联网的线路负载均衡,并且能够在一条线路出现故障的时候提供业务转移功能。我不知道如何设置这种配置。我的互联网服务提供商需要做什么?我的路由器需要如何设置? 回答:你的互联网服务提供商不需要作任何事情。要实现负载均衡,第一步是创建一个访问列表,把你的网络分为两份。根据这个访问列表,你可以把一半的IP地址定义到一条线路上,把另一半IP地址定义到另一个线路上。 假定你的网络是172.16.128.0/24.“允许IP地址10.172.16.128.0 0.0.0.254的访问列表1”将仅允许双数的IP地址。因此,你现在就有了两个子网。你还得根据每个请求和IP地址修改这个列表。现在你可以创建一个路由图。 Route map 10 ISP1_primary(路由表10,第一家主要ISP) Match access-list 1 (与访问列表1相匹配) Set interface ISP1_interface(设接口为第一家主要ISP接口) Route map 20 ISP1_primary (路由表20,第一家主要ISP) Match access-list 1 (与访问列表1相匹配) Set interface ISP2_interface(设接口为第二家主要ISP接口) 同样,你需要为第二家ISP创建另一个路由表。 Route map 10 ISP2_primary(路由表10,第二家主要ISP) Match access-list 2 (与访问列表2相匹配) Set interface ISP2_interface (设接口为第二家主要ISP接口) Route map 20 ISP1_primary(路由表20,第二家主要ISP) Match access-list 2(与访问列表2相匹配) Set interface ISP1_interface(设接口为第一家主要ISP接口) 访问列表2是与网络相匹配的另一个访问列表。你需要用自己的方法分割网络。还有一个选择就是在路由器上增加浮点静态路由。

网络设备冗余和链路冗余常用技术图文

网络设备及链路冗余部署 ——基于锐捷设备 冗余技术简介 随着Internet的发展,大型园区网络从简单的信息承载平台转变成一个公共服务提供平台。作为终端用户,希望能时时刻刻保持与网络的联系,因此健壮,高效和可靠成为园区网发展的重要目标,而要保证网络的可靠性,就需要使用到冗余技术。高冗余网络要给我们带来的体验,就是在网络设备、链路发生中断或者变化的时候,用户几乎感觉不到。 为了达成这一目标,需要在园区网的各个环节上实施冗余,包括网络设备,链路和广域网出口,用户侧等等。大型园区网的冗余部署也包含了全部的三个环节,分别是:设备级冗余,链路级冗余和网关级冗余。本章将对这三种冗余技术的基本原理和实现进行详细的说明。 8.2设备级冗余技术 设备级的冗余技术分为电源冗余和管理板卡冗余,由于设备成本上的限制,这两种技术都被应用在中高端产品上。 在锐捷网络系列产品中,S49系列,S65系列和S68系列产品能够实现电源冗余,管理板卡冗余能够在S65系列和S68系列产品上实现。下面将以S68系列产品为例为大家介绍设备级冗余技术的应用。 8.2.1S6806E交换机的电源冗余技术 图8-1 S6806E的电源冗余 如图8-1所示,锐捷S6806E内置了两个电源插槽,通过插入不同模块,可以实现两路AC电源或者两路DC电源的接入,实现设备电源的1+1备份。工程中最常见配置情况是同 时插入两块P6800-AC模块来实现220v交流电源的1+1备份。 电源模块的冗余备份实施后,在主电源供电中断时,备用电源将继续为设备供电,不会造成业务的中断。 注意:在实施电源的1+1冗余时,请使用两块相同型号的电源模块来实现。如果一块是交流电源模块P6800-AC,另一块是直流电源模块P6800-DC的话,将有可能造成交换机损坏。 8.2.2 S6806E交换机的管理板卡冗余技术 图8-2 S6806E的管理卡冗余 如图8-2所示,锐捷S6806E提供了两个管理卡插槽,M6806-CM为RG-S6806E的主管理模块。承担着系统交换、系统状态的控制、路由的管理、用户接入的控制和管理、网络维护等功能。管理模块插在机箱母板插框中间的第M1,M2槽位中,支持主备冗余,实现热备份,同时支持热插拔。 简单来说管理卡冗余也就是在交换机运行过程中,如果主管理板出现异常不能正常工作,交换机将自动切换到从管理板工作,同时不丢失用户的相应配置,从而保证网络能够正常运行,实现冗余功能。 在实际工程中使用双管理卡的设备都是自动选择主管理卡的,先被插入设备中将会成为主管理卡,后插入的板卡自动处于冗余状态,但是也可以通过命令来选择哪块板卡成为主管理卡。具体配置如下

F5负载均衡配置文档

F5配置手册 2016年12月

目录 1. 设备登录 (3) 1.1图形化界面 (3) 1.2命令行界面 (3) 2. 基础网络配置 (3) 2.1创建vlan (3) 2.2创建self ip (4) 2.3创建静态路由 (4) 3. 应用负载配置 (6) 3.1 pool配置 (6) 3.2 Virtual Server配置 (7) 4. 双机 (8) 4.1双机同步配置 (8) 4.2主备机状态切换 (9)

1.设备登录 1.1图形化界面 通过网络形式访问F5任一接口地址,或pc机直连F5的MGMT带外管理口,打开浏览器,输入https://192.168.1.245(MGMT地址在设备液晶面板查看)将进入F5的图形管理界面。该界面适合进行设备的基础以及高级调试,是管理员常用的管理界面。 默认用户名/密码:admin/admin 现密码已更改,并交由管理员妥善保管。 1.2命令行界面 通过DB9console线直连F5的console口,或通过securecrt等工具以SSH2的形式访问F5任一接口地址,将进入命令行模式。该界面适合进行底层操作系统的调试以及排错。 默认用户名/密码:root/default 现密码已更改,并交由管理员妥善保管。 2.基础网络配置 2.1创建vlan 进入“Network”-“VLANs”选项,点击“create”创建新vlan,如下图:

2.2创建self ip 进入“Network”-“self ips”进行F5设备的地址配置,点击“create”新建地址,如下图: 填写相应地址和掩码,在vlan处下拉选择之前创建好的vlan,将该地址与vlan绑定,即ip地址与接口做成了对应关系。在双机部署下,浮动地址的创建需要选择Traffice Group 中的traffice-group-1(floating ip) 点击“Finish”完成创建。 2.3创建静态路由 F5的静态路由分缺省路由和一般路由两种。任何情况下,F5部署上线都需要设置缺省路由。 缺省路由创建 首先进入“Local Traffic”-“pools”,为缺省路由创建下一条地址,点击“create”,如下图:

windows下Tomcat负载均衡和集群配置

轻松实现Apache,Tomcat集群和负载均衡 作者:罗代均 ldj_work#https://www.sodocs.net/doc/ba1222803.html,,转载请保持完整性 0,环境说明 Apache :apache_2.0.55 1 个 Tomcat: apache-tomcat-5.5.17 (zip版) 2个 mod_jk:: mod_jk-apache-2.0.55.so 1个 第一部分:负载均衡 负载均衡,就是apache将客户请求均衡的分给tomcat1,tomcat2....去处理 1.安装apche,tomcat https://www.sodocs.net/doc/ba1222803.html,/下载Apache 2.0.55 https://www.sodocs.net/doc/ba1222803.html,/download-55.cgi下载tomcat5.5 zip版本(解压即可,绿色版) https://www.sodocs.net/doc/ba1222803.html,/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.15/下载mod_jk,注意和 apache版本匹配 按照jdk,我的路径为:E:\ide\apache\Apache2 解压两份Tomcat, 路径分别为 E:\ide\tomcat1,E:\ide\tomcat2

下载mod_jk

2.修改Apache配置文件http.conf 在apache安装目录下conf目录中找到http.conf 在文件最后加上下面一句话就可以了 include "E:\ide\apache\Apache2\conf\mod_jk.conf"

2. http.conf 同目录下新建mod_jk.conf文件,内容如下 #加载mod_jk Module LoadModule jk_module modules/mod_jk-apache-2.0.55.so #指定 workers.properties文件路径 JkWorkersFile conf/workers.properties #指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器JkMount /*.jsp controller 3.在http.conf同目录下新建 workers.properties文件,内容如下 worker.list = controller,tomcat1,tomcat2 #server 列表 #========tomcat1======== worker.tomcat1.port=8009 #ajp13 端口号,在tomcat下server.xml配置,默认8009 worker.tomcat1.host=localhost #tomcat的主机地址,如不为本机,请填写ip地址 worker.tomcat1.type=ajp13 worker.tomcat1.lbfactor = 1 #server的加权比重,值越高,分得的请求越多 #========tomcat2======== worker.tomcat2.port=9009 #ajp13 端口号,在tomcat下server.xml配置,默认8009 worker.tomcat2.host=localhost #tomcat的主机地址,如不为本机,请填写ip地址 worker.tomcat2.type=ajp13 worker.tomcat2.lbfactor = 1 #server的加权比重,值越高,分得的请求越多

路由冗余设计

路由冗余设计 当设计一个网络架构的时候,在达到基本的互联互通的基础上,一项最基本要侧重考虑的问题是该网络要如何处理故障。这一部分的操作是尝试在经济许可的范围内建立越多越好的冗余链路和设备,同时要保持其网络的性能和可管理性。在终端的角度来看,第一个他们本地网络要连接外部网络的通讯部件是默认网关,如果默认网关失效了,那么接下来的所有通往外部的访问都是空谈。而第一跳冗余协议(first hop redundancy protocol)能够有效的处理这个问题。在Cisco 的设备上,也有几个不同的选择,包括热备用路由器协议(HSRP),虚拟路由器冗余协议(VRRP)和网关负载均衡协议(GLBP)。本文给出了这些选项的概述,以及它们之间的区别。 Hot Standby Router Protocol (HSRP) HSRP是Cisco专有的协议,能使网络工程师将多个冗余路由器配置在同一子网中,每个都可以作为一个子网网关设备使用。如果不使用HSRP,每个子网的设备需要单独配置使用特定的网关,这样就不能有效地提供冗余,但限制了因为路由器失效所受到影响的的客户数。使用HSRP时,一组路由器(网关)将配置在一起,一个HSRP的虚拟IP地址和MAC地址将被创建,以供子网设备使用。HSRP配置中的不同路由器将通信并选择一个主的单一活动网关,来处理所有通信流量。此时,一个单一的备用网关也被选出。备用网关会向主网关发送多播进行通信,检测主网关是否失效。主网关一旦失效,其中的一个备用网关就会夺取住网关的职责并在很小的延迟后转发所有数据流量。与此同时,一个新的备用网关也会被选出。 Virtual Router Redundancy Protocol (VRRP) VRRP是一个开放的标准,可用于存在多个供应商设备的环境中。VRRP的运作类似于HSRP,但在不同方面稍有不同。和HSRP相似的,多个路由器(网关)被配置进同一个组里面,其中一个被网络工程师手工指定为主网关。主网关连接终端所在接口的物理IP地址被指派为默认网关的地址。VRRP组中的备用网关会不断和主网关进行通信,而且当主网关失效后马上替代主网关以转发流量。当主网关恢复正常后,又会自动夺回主网关的身份。 在一个单独的子网中也是允许存在多个VRRP组的,可以用来做负载均衡。不过,这种方法需要在客户端的电脑中手动更改默认网关地址的配置。显然这样可行性非常低的,如果要实现相应的功能,最好还是看看以下要介绍的GLBP。 Gateway Load Balancing Protocol (GLBP)

全局负载均衡解决方案

全局负载均衡解决方案 1 需求分析 无论用户的数据中心内部采用多么完善的冗余机制、安全防范工具以及先进的负载均衡技术,单个数据中心的运行方式仍然不能保证关键业务可以7*24不间断运行。 而为了满足处于全球范围内不同地点的用户在访问应用时可以具备相同的快速访问感受,单一的数据中心却完法实现。 基于以上两个最主要的原因,用户通过在不同物理位置构建多个数据中心的方式已经成为用户的必然选择。然而,在构建了多个数据中心后,如何通过有效手段实现多个数据中心间的协调工作,引导用户访问最优的站点,或者当某个站点出现灾难性故障后使用户仍然可以访问其他站点上的关键业务等问题成为用户最关注的问题。 2 Radware 全局负载均衡解决方案 Radware 的全局负载均衡解决方案能够帮助客户通过将相同服务内容布署在处于不同物理地点的多个数据中心中得到更高的可用性、性能、以及更加经济和无懈可击的安全性,以便在全球范围内的客户获得更快的响应时间。 Radware的全局负载均衡解决方案支持Radware 下一代APSolute OS 软件体系结构的全部功能,彻底解决了网络可用性、性能和安全问题,使得应用在多个数据中心中获得更高的灵敏并具有自适应性。配合Radware 的高速度、高容量ASIC芯片+NP处理器的专用硬件应用交换设备,可有效保障网络应用的高可用性、提升网络性能,加强安全性,全面提升IT服务器等网络基础设施的升值潜力。 结合Radware多年来在智能应用流量管理领域的经验,以及对用户实际需求的分析,我们认为负载均衡器应具备如下功能:

?能够通过唯一的IP地址或域名的方式作为所有提供相同服务的数据中心的逻辑入口点。 ?全局负载均衡交换机具有灵活的流量分配算法与机制,以确保用户总能访问可以为其提供最优服务的数据中心的内容。 ?通过部署高性能的负载均衡产品,能够及时发现各数据中心或数据中心内部的服务器的健康状况,当某个数据中心出现故障时,保证把后续用户的访问导向到正常运行的数据中心上。 ?针对基于会话的业务,可以提供多种会话保持机制,确保用户在处理业务时的连续性。避免将用户的相同会话的业务请求,分配到不同的数据中心而造成访问失败。 ?应具备安全过虑及防DOS/DDOS的功能,为服务器提供多一层安全保障 ?具有很好的升级与可扩展性,能够适应特定的和不断变化的业务需求。 2.1 方案拓扑图 2.2 AppDirector-Global实现全局及本地负载均衡 在全局及本地负载均衡方面,AppDirector-Global主要在网络中实现以下功能: 2.2.1 全局负载均衡策略 Radware支持多种全局负载均衡策略,能够通过唯一的IP地址或域名的方式作为所有提供相同服务的数据中心的逻辑入口点。根据用户的实际情况,可以选择其中以下的一种,也可以组合同时使用。

集群的负载均衡技术综述

集群的负载均衡技术综述 摘要:当今世界,无论在机构内部的局域网还是在广域网如Internet上,信息处理量的增长都远远超出了过去最乐观的估计,即使按照当时最优配置建设的网络,也很快会感到吃不消。如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,负载均衡机制因此应运而生。本组在课堂上讲解了《集群监控与调度》这一课题,本人在小组内负责负载均衡部分内容,以及PPT的制作。 关键词:负载均衡集群网络计算机 一、前言 负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。 其实,负载均衡并非传统意义上的“均衡”,一般来说,它只是把有可能拥塞于一个地方的负载交给多个地方分担。如果将其改称为“负载分担”,也许更好懂一些。说得通俗一点,负载均衡在网络中的作用就像轮流值日制度,把任务分给大家来完成,以免让一个人累死累活。不过,这种意义上的均衡一般是静态的,也就是事先确定的“轮值”策略。 与轮流值日制度不同的是,动态负载均衡通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理分配出去。结构上分为本地负载均衡和地域负载均衡(全局负载均衡),前一种是指对本地的服务器集群做负载均衡,后一种是指对分别放置在不同的地理位置、在不同的网络及服务器群集之间作负载均衡。 服务器群集中每个服务结点运行一个所需服务器程序的独立拷贝,诸如Web、FTP、Telnet或e-mail服务器程序。对于某些服务(如运行在Web服务器上的那些服务)而言,程序的一个拷贝运行在群集内所有的主机上,而网络负载均衡则将工作负载在这些主机间进行分配。对于其他服务(例如e-mail),只有一台主机处理工作负载,针对这些服务,网络负载均衡允许网络通讯量流到一个主机上,并在该主机发生故障时将通讯量移至其他主机。 二、负载均衡技术实现结构 在现有网络结构之上,负载均衡提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务: 1.解决网络拥塞问题,服务就近提供,实现地理位置无关性 2.为用户提供更好的访问质量 3.提高服务器响应速度

多链路负载均衡及冗余

多链路负载均衡及冗余

目录 1.目的 (3) 2.环境拓扑 (3) 3.链路负载均衡 (3) 3.1 基于源IP的负载均衡 (4) 3.2基于权重的负载均衡 (6) 3.3基于出口流量阀值的负载均衡 (6) 3.4 其他负载均衡 (7) 3.5 策略路由 (7) 4.链路冗余 (8) 4.1 检测服务器 (8) 4.2管理距离与优先级 (8) 5.负载均衡与冗余 (9) 6.参考 (9)

1.目的 本文档针对FortiG ate在具有两条或两条以上出口时的负载均衡及链路冗余配置进行说明。Fortigate在多链路可以支持不同方式的负载均衡,在链路负载均衡的同时,也可以实现链路的冗余。 2.环境拓扑 本文使用FortiGate-VM 做演示。本文支持的系统版本为FortiOS v4.0MR3 Patch2及更高。 该配置中使用FortiGate-VM1 模拟两条WAN线路,通过FortiGate-VM2连接至外网,实际环境可以据此参考。 3.链路负载均衡 链路负载均衡功能需要为2个不同的出网接口分别配置一条默认路由,如果实现负载均衡,需要2条或多条静态路由的管理距离以及优先级保持一致。同时也需要保证配置内网去往2条出口的策略。 如果使用静态路由的话可以把出网路由的管理距离配置成相等的,也就是等价路由。如果是ADSL、DHCP等动态获取的网关的话可以把“从服务器中重新得到网关”选中同时将动态获取的路由的管理距离配置即可。在默认路由已经配置完成的情况下,如果仍然有某些特定的数据流需要从指定的出口出网的话,可

以使用策略路由功能来完成这样的需求。策略路由的优先级高于动态和静态路由,按照从上到下的次序来匹配的。 负载均衡包括三种模式: 1.基于源IP的负载均衡; 2.基于权重的负载均衡; 3.基于出口流量阀值的负载均衡。 3.1 基于源IP的负载均衡 基于源IP的负载均衡, 当路由表中有多个出网路由时,FortiGate设备会按内置的算法实现负载均衡,这个算法不能被修改。这个算法是:假设路由表中有n条出网路由,则防火墙会将内网源IP地址的最后一组数值除n取余,余1走第一条出网路由,余n-1走第n-1条出网路由,余0走第n条出网路由。 本例的出网规则是:,如果想让某些IP走特定的接口需要策略路由来实现。

相关主题