搜档网
当前位置:搜档网 › Linux双机iSCSI Target实现方案

Linux双机iSCSI Target实现方案

Linux双机iSCSI Target实现方案
Linux双机iSCSI Target实现方案

Linux双机iSCSI Target实现方案

本文介绍了一种通过开源软件模拟存储设备的实现方案。存储设备最重要的特性是数据的安全性、系统的可靠性,它通过Raid1、Raid5等方案实现数据安全性,使用冗余控制卡、连接器等措施实现系统的可靠性。目前在Windows、Linux系统环境中都存在各种各样可以模拟iSCSI Target的软件,但是由于其系统、软件本身的可靠性很难用于生产环境。本方案通过Linux上双机控制软件、数据同步软件、iSCSITarget软件的配合使用实现一种较可靠的软件数据存储方案。

原理说明:

DRBD(Distributed Replicated Block Device)是一个用软件实现的、无共享的、服务器之间镜像块设备内容的存储复制解决方案。能将数据在服务器之间实时、透明传输,保证数据的同步。DRBD的核心功能通过Linux的内核实现,其性能接近系统的IO栈。

Heartbeat是一个高可用集群系统解决方案,它能管理集群中的资源(磁盘、IP、服务等),实时监控集群中的各种资源,能通过重新挂载、重启服务、故障转移等措施保证集群中服务的高可用。

TGT是Linux环境上用于构建iSCSI Target的服务,它配置简单,应用广泛。能将普通Linux 机器模拟成一台iSCSI的存储设备。

本方案中配合使用上述三种软件,完成软件iSCSI Target存储方案。

系统可靠性可分为:主机设备级、组网网元级、应用系统级,该方案中暂不考虑主机设备级和组网级的故障。主要考虑到网元级、应用系统级的故障。系统中:

1.用Heartbeat软件管理两台Linux机器组成双机,并监控其浮动IP、硬盘、服务等资源。

2.DRBD网元采用热双机方式部署,DRBD管理两台Linux机器上的硬盘形成Raid1,通过

DRBD存储文件时,其数据会实时在两台机器的硬盘上存储,以保证数据安全性。

3.TGT网元采用冷双机方式部署,TGT将本地磁盘上的数据虚拟为存储,TGT服务依赖浮

动IP和DRBD的主节点,其中资源之间的依赖关系由Heartbeat统一管理。

软件安装

软硬件资源说明

Linux系统采用Ubuntu12.04,上述的其他软件都采用Ubuntu源中自带版本,两台Ubuntu 配置一样,运行上述三种软件所需系统资源很少,2核512M内存足够,但要求系统配置2块磁盘(同一块磁盘的两个分区也行,但不推荐),其中一块用于安装Ubuntu及上述三款软件,10G足够。另一块磁盘配合另一台机器组成Raid1存储数据,可根据实际情况自行分配。两台机器上用于存放数据的磁盘容量需保证一致。在实际部署时如果Ubuntu运行在EXSI 或者OpenStack等虚拟机环境中时,需确保这两台机器分别运行在不同的宿主机上,否则数据安全性将变为空谈。

注意:不要使用Ubuntu14.04,因为该发行版所带heartbeat中的pacemaker(版本为1.1.10)模块存在严重bug,在启用heartbeatv2模式时将导致系统反复重启。

实验环境说明

在这两台机器的hosts文件中分别添加对方机器名和IP的对应关系,以保证双机能互相解析主机名。

安装、配置DRBD

Ubuntu系统安装完成后,两台机器分别通过其aptitude工具自动安装drbd8-utils。

通过系统fdisk别对/dev/sdb磁盘进行分区操作,新建/dev/sdb1。

DRBD的配置文件为:/etc/drbd.conf。该配置文件没有具体的配置信息。具体配置文件为/etc/drbd.d/目录下的全局配置文件global_common.conf及相关的资源配置文

global_common.conf

注:上述配置虽简单,但功能测试成功,不要随意增加配置项,尤其是超时相关的配置项,否则会导致Heartbeat双机切换失败(除非你明确知道相关配置项对系统的影响);

iscsiserver.res

将上述两个配置文件分别拷贝到iSCSI1和iSCSI2机器,分别在两台机器上运行:

1.drbdadm create-md iscsiserver,在两台机器上创建iscsiserver资源,资源名

称必须和/etc/drbd.d/*.res配置文件中设定的一致。

2.service drbd start,在两台机器上启动drbd。

在其中任意一台机器上运行drbd-overview可以看到,两块磁盘的数据块开始同步:

3.磁盘数据块同步完成后在某一主机上运行drbdadm -- --overwrite-data-of-peer

primary all在该机器上激活/dev/drbd0块设备。

4.通过mkfs工具对/dev/drbd0磁盘格式化操作(不要进行分区操作),根据提示可能

需要重启系统。

注意:运行drbdadmsecondary all可以去激活/dev/drbd0 (此命令将drbd0切换到备用机上)

在一台机器上激活/dev/drbd0并挂载后写入某文件,卸载去激活后,在另一台机器上激活挂载后,如果能看到相同的文件,则证明drbd配置成功。

安装、配置TGT

两台机器分别通过系统自带的aptitude工具自动安装tgt。

tgt服务的配置文件是/etc/tgt/targets.conf,该配置文件采用xml格式,在iSCSI1和iSCSI2上该配置文件需保证一致;

targets.conf

1.在iSCSI1和iSCSI2上分别新建/iSCSIdata目,在某一台机器上运:

2.drbdadm -- --overwrite-data-of-peer primary all激活drbd主机,出现/dev/drbd0块

设备

3.运行mount /dev/drbd0 /iSCSIdata,将/dev/drbd0挂载到/iSCSIdata目录

4.运行dd if=/dev/zero of=/iSCSIdata/File.disk count=2 bs=1G命令在/iSCSIdata中分别

新建一个所需的lun文件;

5.运行service tgt start启动tgt服务;

安装、配置Heartbeat

两台机器分别通过系统自带的aptitude工具自动安装heartbeat。

Heartbeat存在v1和v2两种模式,v1模式用于较粗糙的监控,只有主机宕机,或者心跳断线超时才会触发资源组的切换。无法对资源组内每个资源如IP、文件系统、服务进程的单独监控,v2模式中采用CRM(Cluster Resource Monitor)细致地对每个资源进行监控。

采用v2模式时,Heartbeat有如下三个配置文件:

1./etc/ha.d/ha.cf #用于配置集群中的节点,心跳端口等基础配置

2./etc/ha.d/authkeys #配置双机之间的相互鉴权信息

3./var/lib/heartbeat/crm/cib.xml #heartbeat所监控的资源、资源组、监控脚本、监

控间隙等操作,是Heartbeat的核心配置项

说明:/etc/ha.d/haresources为Heartbeat在v1模式下的配置项,使用v2模式时该配置文件无效。

在/usr/share/doc/heartbeat目录里找到ha.cf、haresources、authkeys三个配置文件的模板,将其拷贝解压到/etc/ha.d目录下,修改配置之;

ha.cf

iSCSI1和iSCSI2上的该配置文件应保持一致(除ucast配置的对端IP地址)。

authkeys

说明/etc/ha.d/authkeys文件的权限必须是600,否则heartbeat无法启动;

用heartbeat来控制集群中的所有资源及服务。为保险起见,关闭Ubuntu系统中相关服务的开机自启动项,运行apt-get install sysv-rc-conf安装sysv-rc-conf,用字符组成的图形界面配置相关的系统启、停项:

按照提示提示关闭drbd、tgt在各个系统运行级别下的开机自启动配置;

在Ubuntu 6.04之后增加了upstart对系统所运行服务的监控,其中tgt服务在运行过程中会被upstart所监控,即使关闭tgt的开机自启动,系统启动后upstart仍然会拉起tgt服务,为避免备机上的tgt服务被upstart异常启动,修改配置文件/etc/init/tgt.conf:

保证ubuntu系统启动后tgt不会被自动拉起。

Heartbeat对系统的服务所有监控需依赖相关的双机脚本,其中对网卡状态、IP、DRBD、文件系统的监控,Heartbeat都已自带相关的启停、监控脚本,直接使用即可。对tgt服务的启停和监控需自行开发相关shell脚本。监控脚本的风格有ocf和lsb两种,其中status和monitor参数是用来监控资源的,非常重要,相关文档说明信息如下:

●如果是LSB风格的脚本,运行/etc/init.d/tgtstatus时候,返回值包含OK或则running则表示资

源正常,返回值包含No或者stopped则表示资源不正常。

●如果是OCF风格的脚本,运行/etc/init.d/tgtmonitor时,返回0表示资源是正常的,返回7表示

资源出现问题。

本方案中使用lsb格式,例如在heartbeat监控tgt过程中,Heartbeat会不断的运行/etc/init.d/tgt status脚本,并根据返回值或者字符串判断服务是否正常。在方案测试过程中发现本方案中的Heartbeat3.0.5版本不是根据脚本返回的字符串判断服务状态,而是直接根据返回值判断。脚本返回0,Heartbeat认为相关服务正常,脚本返回1,Heartbeat认为相关服务异常。

安装tgt完成之后,tgt服务本身即是通过/etc/init.d/tgt start、/etc/init.d/tgt stop、/etc/init.d/tgt status三个脚本开启、停、监控tgt服务。似乎满足Heartbeat的LSB风格,但这三个脚本在运行之后其返回值均为0,这将导致Heartbeat一直认为服务正常,失去监控功能。

在本方案中对tgt脚本进行了二次封装,使其满足Heartbeat的LSB风格,其原理为自己新建一个脚本使其支持start、stop、status三个输入参数,其中核心仍然为调用tgt自带脚本,在新脚本中根据tgt脚本返回的字符串,判断服务正常与否、并返回相关的结果码,供heartbeat检测,该脚本必须在/etc/init.d目录下,新建/etc/init.d/tgt_ha,并增加执行权限:

tgt_ha

说明:该脚本只是根据tgt返回的字符串中是否含有“start/running”子字符串来判断服务的状态,监控还不够苛刻。如果为了更加严格的监控,可以用python或者其他语言写一个iSCSI 的initiator,看看是不是可以挂载成功判断服务是否正常;

上述配置完成后,在两台机器上分别运行service heartbeat restart重启Heartbeat服务,在任意一机器上运行crm_mon -1,查看双机工作状态,待出现“Online: [ iscsi1 iscsi2 ]“字样后,在任意机器运行如下crm配置命令,系统会自动同步到双机上。

CRM Configure.txt

完成上述配置后系统会在两台机器上生成/var/lib/heartbeat/crm/cib.xml配置文件。

cib.xml

在任意机器上运行crm_mon–i1,系统将每隔1s刷新显示双机上的资源、资源组的运行信息。

完成上述配置后,关闭主机tgt服务、卸载主机文件系统,heartbeat均能做出正确的反应,在主机上保证tgt服务可用。重启主机后系统也可正常切到备机上运行。

说明:该方案中双机之间只有一根心跳线(即直接通过业务网卡链路进行心跳通信),在特殊的网络条件下可能造成双机的脑分裂(双机之间不通,但均与外部系统相通),这种情况可忽略不考虑。由于是直接通过业务网卡进行心跳通信,一般情况下如果双机之间如果心跳出现问题,可认为其中一台机器已经断开生产环境网络连接,此场景下即使两台机器都被拉为主机,由于其中一台已经断开生产环境,不会对生产环境的其他网元造成影响。

weblogic集群负载均衡部署文档(支持win7+linux6.5)

Weblogic集群和负载分发的部署(支持win7+linux6.5 64位)

目录 1.集群目的 (3) 2.部署环境 (3) 3.注意问题 (3) 4.安装weblogic过程 (3) 5.weblogic集群部署过程 (9) 5.1创建weblogic域 (9) 5.2 weblogic集群化配置 (15) 5.3 weblogic简单负载均衡配置 (28) 5.4 weblogic集群复杂均衡测试 (32)

1.集群目的 项目成功部署后,可能会出现运行过程中服务器挂掉不能正常使用。为了防止这种情况,采用weblogic 集群方式部署,以消除客户的担心。 2.部署环境 3.注意问题 因为时间仓促和作者水平有限有些待解决问题需要说明 1.请不要登陆后在地址栏按回车键重新访问地址来验证session复制。 2.如果按F5刷新页面则会跳到选择模块界面,无法说明session复制失败。 3.服务器地址默认用127.0.0.1 ,如果用ip地址(如:192.169.1.169),则把配置过程所有地方的127.0.0.1改成你的实际ip地址,记住创建时候ip地址要统一。 4.安装weblogic过程 1)首先登陆 https://www.sodocs.net/doc/d013793411.html,/technetwork/cn/middleware/ias/downloads/wls-main-091116-z hs.html 去下载一个windows版的weblogic 我下载的是1036版本

2)双击打开后3)初始化完成后 4)点击下一步

把“我希望通过这个。。。。。。”勾选取消。

存储、集群双机热备方案

存储集群双机热备方案

目录 一、前言 (3) 1、公司简介 (3) 2、企业构想 (3) 3、背景资料 (4) 二、需求分析 (4) 三、方案设计 (5) 1.双机容错基本架构 (5) 2、软件容错原理 (6) 3、设计原则 (7) 4、拓扑结构图 (7) 四、方案介绍 (10) 方案一1对1数据库服务器应用 (10) 方案二CLUSTER数据库服务器应用 (11) 五、设备选型 (12) 方案1:双机热备+冷机备份 (12) 方案2:群集+负载均衡+冷机备份 (13) 六、售后服务 (15) 1、技术支持与服务 (15) 2、用户培训 (15)

一、前言 1.1、公司简介 《公司名称》成立于2000年,专业从事网络安全设备营销。随着业务的迅速发展,经历了从计算机营销到综合系统集成的飞跃发展。从成立至今已完成数百个网络工程,为政府、银行、公安、交通、电信、电力等行业提供了IT相关系统集成项目项目和硬件安全产品,并取得销售思科、华为、安达通、IBM、HP、Microsoft等产品上海地区市场名列前茅的骄人业绩。 《公司名称》致力于实现网络商务模式的转型。作为国内领先的联网和安全性解决方案供应商,《公司名称》对依赖网络获得战略性收益的客户一直给予密切关注。公司的客户来自全国各行各业,包括主要的网络运营商、企业、政府机构以及研究和教育机构等。 《公司名称》推出的一系列互联网解决方案,提供所需的安全性和性能来支持国内大型、复杂、要求严格的关键网络,其中包括国内的20余家企事业和政府机关. 《公司名称》成立的唯一宗旨是--企业以诚信为本安全以创新为魂。今天,《公司名称》通过以下努力,帮助国内客户转变他们的网络经济模式,从而建立强大的竞争优势:(1)提出合理的解决方案,以抵御日益频繁复杂的攻击 (2)利用网络应用和服务来取得市场竞争优势。 (3)为客户和业务合作伙伴提供安全的定制方式来接入远程资源 1.2、企业构想 《公司名称》的构想是建立一个新型公共安全网络,将互联网广泛的连接性和专用网络有保障的性能和安全性完美地结合起来。《公司名称》正与业界顶尖的合作伙伴协作,通过先进的技术和高科产品来实施这个构想。使我们和国内各大企业可通过一个新型公共网络来获得有保障的安全性能来支持高级应用。 《公司名称》正在帮助客户改进关键网络的经济模式、安全性以及性能。凭借国际上要求最严格的网络所开发安全产品,《公司名称》正致力于使联网超越低价商品化连接性的境界。《公司名称》正推动国内各行业的网络转型,将今天的"尽力而为"网络改造成可靠、安全的高速网络,以满足今天和未来应用的需要。 1.3、背景资料 随着计算机系统的日益庞大,应用的增多,客户要求计算机网络系统具有高可靠,高

双机热备的数据备份和灾难备份方案

双机热备的数据备份和灾难备份方案 一、方案背景 1. 用户目前数据环境及需求 根据提供的信息,目前用户的系统环境如下描述:操作系统:Windows 操作系统,关键数据:VSS 数据库现在用户要备份的服务器为2台数据库服务器做双机热备集群,整个系统对于备份的要求:备份系统稳定可靠,保证随时能够备份/还原关键数据;对服务器有灾备的考虑,操作系统崩溃时能通过灾难备份快速恢复操作系统。同时考虑远期建设目标平滑过渡,避免重复投资。 2. 用户目前状态和存在的问题 目前用户双机服务器拓扑图如下,这样的方式存在以下问题: a) 由于主机与备机及磁盘阵列中的数据都没有备份,一旦发生磁盘阵列数据丢失、主机与备机数据丢失事故时,将会造成重大损失。 b) 当服务器操作系统崩溃时,无法快速恢复。 二、设计方案 1. 设计原则 根据上述问题建议的备份方案应该遵循以下原则:备份系统应该支持Open File 热备份功能磁盘阵列连接在专用的备份服务器上、对双机集群中的2台机器都能进行数据备份、备份软件支持定时计划备份、备份软软件支持服务器灾难备份、备份软件提供网络集中备份功能,能集中备份网络上其余SQL Server、ORACLE或文件数据,提供良好的扩展性。 2. 方案的设计 依据上述设计原则,建议采用爱数备份软件专业备份软件安装在一台备份服务器上,通过网络对双机系统进行数据备份和操作系统灾难备份。Backup Exec 作为专业的备份软件,具有以下优点: c) 专业的企业网络集中备份解决方案,一台备份服务器可以备份网络上多台服务器数据(文件服务器、VSS服务器、数据库服务器、邮件服务器等) d) 备份软件支持Open file 热备份功能,能对正在使用的数据进行备份。 e) 能根据需要制定灵活多变的备份计划任务 f) 支持服务器操作系统崩溃灾难备份/恢复

Linux负载均衡的设置步骤

Linux负载均衡的设置步骤 本文主要介绍了Linux负载均衡的设置步骤。包括ipvsadm的安装,设置IPVS,Load Balancer,LDirectord等方面的具体介绍,希望大家通过本文的学习能对这方面有所了解。 Linux作为一个具有代表性的开源系统,受到广大的用户所喜爱。那么如何在LVS下进行负载均衡的使用呢?现在我们就来详细地为大家介绍一下,主要是使用ipvsadm来实现负载均衡。那么按照一贯的程序,首先是安装程序,然后是配置。 Linux Virtua Server负载均衡ipvsadm使用方法 1.安装ipvsadm 下载ipvsadm,下载时需注意对应自己的内核版本? ipvsadm下载网址:http://www.Linux https://www.sodocs.net/doc/d013793411.html,/software/ 本文使用的是FC8系统,内核版本2.6.23.1,对应ipvsadm版本1.24? 安装时需要Linux内核源码,如果安装系统时没有安装源码,需要再下载内核源码?本文使用的内核是Linux-2.6.23.1.tar.bz2?把内核解压到/usr/src/Linux-2.6.23.1?下面开始编译安装: 建立内核快捷方式:ln-s/usr/src/Linux-2.6.23.1/usr/src/Linux 解压ipvsadm:tar zxvf ipvsadm-1.24.tar.gz 安装ipvsadm: cd ipvsadm-1.24 make make install 安装完成后,下一步我们开始配置IPVS,本文主要介绍Direct Routing方式的配置? 2.配置IPVS(Direct Routing)

服务器双机热备方案定稿版

服务器双机热备方案精 编W O R D版 IBM system office room 【A0816H-A0912AAAHH-GX8Q8-GNTHHJ8】

双机热备方案 双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 1.集群技术 在了解双机热备之前,我们先了解什么是集群技术。 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。 其中,只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。可见,双机热备是集群技术中最简单的一种。 2. 双机热备适用对象 一般邮件服务器是要长年累月工作的,且为了工作上需要,其邮件备份工作就绝对少不了。有些企业为了避免服务器故障产生数据丢失等现象,都会采用RAID技术和数据备份

技术。但是数据备份只能解决系统出现问题后的恢复;而RAID技术,又只能解决硬盘的问题。我们知道,无论是硬件还是软件问题,都会造成邮件服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。 要恢复服务器,再轻微的问题或者强悍的技术支持,服务器都要中断一段时间,对于一些需要随时实时在线的用户而言,丢失邮件就等于丢失金钱,损失可大可小,这类用户是很难忍受服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 3. 实现方案 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。 1)基于共享的存储设备的方式 基于存储共享的双机热备是双机热备的最标准方案。对于这种方式,采用两台服务器(邮件系统同时运行在两台服务器上),使用共享的存储设备磁盘阵列(邮件系统的数据都存

双机存储备份方案

双机存储备份方案 方案设计 方案拓扑 方案连接说明 此次新购二台IBM P55A服务器,一台为数据库服务器安装Oracle 10G数据库软件,另一台为应用服务器,两台服务器互为备份,同时通过直接连接DS4700光纤阵列。 其中,双机系统通过HACMP软件来实现,采取主备机的方式,当主服务器出现故障,应用系统不能正常运行时,备机会主动接管应用系统,本次二台小机互为备份,从而保证系统的正常运行。 光纤存储全部采用4GB速率的光纤连接,可以保证整个存储系统的传输速率。同时IBM 存储设备全部采用冗余设计,可以保证业务的连续性和安全性。 在存储系统中,我们采用IBM DS4700磁盘存储,DS4700有着高达120000IOPS性能指标,最大可连接112块磁盘。卓越的性能和强大的扩展能力可以满足客户现有需求和未来发展的需求,考虑客户实际情况,我们采用光纤磁盘和SATA磁盘混插的方式,在即满足客户的需求的前提下,为客户更好的利用硬件资源,并节省资源。 本次新购一台IBM x3550 PC服务器作为接口服务器 本次数据库软件配置为Orcale Database Enterprise Edition 10g ,50用户。 本次方案中存储备份软件配置IBM Tivoli Storage Manager (TSM)存储备份管理软件,管理日常的备份策略,利用客户原有带库,进一步提升应用系统的安全性。

HACMP工作原理 HACMP 是High Availability Cluster Multi-Processing 的缩写。HACMP 是IBM 公司在P 系列AIX操作系统上的高可靠集群软件,配置冗余,消除单点故障,保证整个系统连续可用性和安全可靠性。HACMP是利用网络来侦测主机及网卡的状况,搭配AIX所提供的硬盘镜像等功能,在主机、网卡、硬盘控制卡、硬盘或网络发生故障时,自动切换到另一套备用元件上重新工作; 若是主机故障还切换至备份机上继续应用系统的运行。 作为双机系统的两台服务器同时运行HACMP 软件; 两台服务器的备份方式有三种: 一台服务器运行应用,另外一台服务器做为备份 两台服务器除正常运行本机的应用外,同时又作为对方的备份主机; 两台服务器同时运行相同的应用,需要数据库的支持。 两台主机系统在整个运行过程中,通过“心跳线”相互监测对方的运行情况(包括系统的软硬件运行、网络通讯和应用运行情况等); 一旦发现对方主机的运行不正常(出故障)时,故障机上的应用就会立即停止运行,本机(故障机的备份机)就会立即在自己的机器上启动故障机上的应用,把故障机的应用及其资源(包括用到的IP地址和磁盘空间等)接管过来,使故障机上的应用在本机继续运行; 应用和资源的接管过程由HACMP 软件自动完成,无需人工干预; 当两台主机正常工作时,也可以根据需要将其中一台机上的应用人为切换到另一台机(备份机)上运行。

负载均衡集群系统解决方案

Linux负载均衡集群系统解决方案 行业: 跨行业 功能:Linux,负载均衡集群 供应商: 中国软件股份集团 方案正文: Linux虚拟服务器简介 基于中软Linux的虚拟服务器(Linux Virtual Server,即LVS)是一个具有高可用性特点的负载均衡集群系统。该系统可以提供与服务器节点的数量、性能成正比的负载能力,有效提高服务的吞吐量、可靠性、冗余度、适应性,性能价格比高。同时,LVS也是利用低端设备实现高端服务器性能的有效途径。 中软Linux虚拟服务器(Linux Virtual Server,即LVS)是建立在一个主控服务器(director)及若干真实服务器(real-server)所组成的集群之上。real-server负责实际提供服务,主控服务器根据指定的调度算法对real-server进行控制。而集群的结构对于用户来说是透明的,客户端只与单个的IP(集群系统的虚拟IP)进行通信,也就是说从客户端的视角来看,这里只存在单个服务器。 Real-server可以提供众多服务,如ftp, http, dns, telnet, nntp, smtp 等。主控服务器负责对Real-Server进行控制。客户端在向LVS发出服务请求时,Director会通过特定的调度算法来指定由某个Real-Server来应答请求,而客户端只与Load Balancer的IP(即虚拟IP,VIP)进行通信。 二、优点 *提高吞吐量:为获得更高的吞吐量,在LVS中增加real-servers,其开销只是线性增长;而如果我们选择更换一台更高性能的服务器来获得相当的吞吐量,其开销要大得多,而且被替换掉的旧服务器会造成资源的浪费。 *冗余:如果LVS中某real-server由于需要升级或其它原因而停止服务,其退出以及恢复工作,并不会造成整个LVS对客户端服务的中断。 *适应性:不管是需要吞吐量逐渐地变化(因日常事务量变化),还是快速地变化(因突发事务量变化),服务器数量的增减对于客户端都是透明的。 三、结构图

IBM3650双机热备方案示例

IBM3650双机热备方案示例 IBM3650双机热备方案示例 IBM X3650服务器+DS3200 SAS 磁盘柜双机热备方案双机热备方案所需软硬件清单如下: 1、IBM X3650 服务器2台(具体配置根据需求选配) 2、IBM DS3200 磁盘柜一台(单控制器,单SAS 接口) 3、SAS HBA 卡2块(每台服务器各加一块) 4、双机模块(子卡)一块 5、SAS 连接线2条 6、双机热备软件(ROSE HA OR LIFEKEEPER )一套 DS3200/DS3400安装心得及技巧 这应该是网络上第一篇关于IBM System Storage DS3200和DS3400产品安装的非官方性文章,希望可以对大家的工作中带来帮助。 作为DS400产品的更新型号,DS3200和DS3400提供了更强的性能及灵活性,相信会成为今后一两年内的IBM低端存储产品的首选。 DS3200和DS3400均出自于LSI公司的Engenio系统(DS4000系列的大部分产品也是由Engenio为IBM协议设计及生产,去年Engenio被LSI收购)。所以设计思想和结构与DS400(Adapter 公司设计)会有较大的不同,管理方式也会与DS4000系列较为接近。

DS3000系列均需要在自身上安装不少于4个硬盘。建议先装上硬盘再上电开机。 DS3000系列提供与DS4000系列类似的带内和带外两种管理方法,带外管理的默认IP地址也与DS4000一样,控制器A为192.168.128.,控制器B为192.168.128.102。 本人比较喜欢采用带外管理,将本本网卡设至192.168.128网段后,可以ping通即可。 管理口长时间未起用时需要若干分钟的时候等待管理接口工作。 在本本上安装DS3000 Storage Manager(随机附带),注意该SM与DS4000上的Storage Manager为不同程序,不可替换使用。甚至不能在一台机器上共存。 打开Storage Manager后,首先需要发现设备,可以ping通控制器后,发现工作会非常容易。 双击发现的设备就可以进入该设备的管理界面,学名叫Subsystem Management。 Subsystem Management分为5个大项,Summary,Configure,Modify,Tools,Support。 常规的操作这里不再详述,如果你装过DS4000产品,应该对配置方法不会感到陌生。当然Storage Manager里只提供一些常规功能,在遇到问题的时候,比如需要重置手动清零时在该程序里无法完成的,所以与DS4000产品一样,提供了Script的方式,运行Script有两种方法。方法一:在DS3000 Storage

双机热备简介

双机热备简介 一、双机热备 双机热备特指基于active/standby方式的服务器热备。服务器数据包括数据库数据同时往两台或多台服务器写,或者使用一个共享的存储设备。在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会通过软件诊测(一般是通过心跳诊断)将standby机器激活,保证应用在短时间内完全恢复正常使用。其实现过程如下图所示: 图(1) 为什么要做双机热备? 双机热备针对的是服务器的故障。 服务器的故障可能由各种原因引起,如设备故障、操作系统故障、软件系统故障等等。一般地讲,在技术人员在现场的情况下,恢复服务器正常可能需要10分钟、几小时甚至几天。双机高可用系统解决方案,为用户提供了具有单点故障容错能力的系统平台。它采用主服务发生故障时备服务器接管的机制,实现在线故障自动切换,实现系

统7×24小时不间断运行,避免停机造成的损失。 (一)纯软件双机热备 纯软件双机热备是在实时数据镜像基础上,实现了不需要共享存储的纯软高可用性系统,一般支持数据库和应用软件实现双机热备。 方案一:Windows(或者Linux)+ Rose Mirror HA+ORACLE(或者SQL Server)的双机热备 网络拓扑: 图(2) 投资采购软硬件设备: (1)数据库服务器:两台数据库服务器,每台服务器至少两个网络口; (2)操作系统:windows或者linux操作系统; (3)数据库软件:Oracle或者SQL Server企业版; (4)集群软件:Rose mirror HA(Rose公司); (5)交换机:核心交换机一台。

数据中心双机备份系统解决方案

数据中心双机备份系统解决方案 [导读]与数据库联系密切的共享内存和异步 I/O 专门进行了调整,在此平台之上建立数据库的应用可以得到超乎寻常的性能。 应用摘要 对于企业用户来说,多种服务都是建立在数据库基础之上的,大型www 服务器和邮件服务器都必须通过与数据库的连接来提供更强大的服务,也便于提供高级信息内容管理解决方案,利于实现最有效的信息存储、管理和分享。通过使用数据库可以集中地存储、管理和使用信息内容、把数据整合到几个服务器上以便于及时地发布,同时也可以减少信息技术费用,减低复杂性。选择一个好的操作系统平台和数据库平台是ISP/ICP 能够提供高质量服务的关键。 应用领域 通用 方案内容 基于 Turbolinux 的TurboHA 双机容错解决方案: Turbolinux TDS Server 是面向建立数据库应用而开发的高性能网络操作系统平台,其设计的目标是提供一个高性能、高稳定性的操作系统平台,系统针对数据库平台进行了全面的优化,对核心系统进行了专门的定制开发,所有核心参数的设置都是基于运行数据库系统而进行考虑,使其与Turbolinux Server 6.0 无缝的连接在一起,充分发挥其优越的性能。 与数据库联系密切的共享内存和异步 I/O 专门进行了调整,在此平台之上建立数据库的应用可以得到超乎寻常的性能。TDS 全面捆绑了 Oracle 的数据库产品 Oracle 8i ,使数据库的安装不再成为困难,用户可以在进行操作系统安装时就可以同时进行数据库的安装,用户只需选择是否安装数据库就可以完成复杂的数据库安装工作,减少现场工程师的技术支持费用。整个操作系统和数据库捆绑在一起的费用非常低,而高性能的配置能提升整个系统的性能。 TurboHA 通过装在两个服务器中的双机热备份系统软件,使系统具有在线容错的能力,即当处于工作状态的服务器无法正常工作时,通过双机系统容错软件,使处于守候监护状态的另一台服务器迅速接管不正常服务器上的业务程序及数据资料,使得网络用户的业务交易正常运行,保证交易数据的完整一致性及交易业务的高可靠性。 TurboHA 采用容错软件与磁盘阵列结合的解决方案,达到监控所有的软硬件的资源操作,并且具有自动处理一些错误的功能。 TurboHA 能够管理两台Linux 服务器,并提供两种工作模式。 TurboHA 采用的双服务器采用TCP/IP 网络协议和用户连接。双机后台对于客户─服务器网络用户透明。 TurboHA 提供一个逻辑的IP Address,任一用户上网只需要用到这一地址;当后台有一台服务器出现故障时,另外一台服务器会自动将其网卡的 IP Address 替换为170.200.80.99; 这样,用户一端的网络不会因为一台服务器出现故障而断掉。对于数据库,当有一台服务器出现故障时,另外一台服务器会自动接管数据库engine ;同时激活数据库和应用程序,便用户数据库可以继续操作,对用户而言不受影响。 TurboHA 内部含有SCSI 侦测心跳及网络侦测心跳两条通讯线路,可靠安全。监控的对象资源包括数据库运行状态、应用程序。当系统确认需要切换时,TurboHA 在尽可能短的时间内完成安全切换,并对其切换过程提供动态监测、显示,同时为用户提出排除故障的操作提示。

RoseMirrorHA镜像服务器双机热备解决方案及具体配置

RoseMirrorHA镜像服务器双机热备解决方

案及具体配置 . 一、双机热备拓扑图以及工作原理 专业资料Word .

双机热备工作示意图 二、双机热备方案介绍操作系统和应用程序是安装在两台服务器的本地系统盘在高可用性方案中,数据的集磁盘阵列集中管理和数据备份的。上的,而整个网络系统的数据是通过将所有站点的数据直接从中央存储设备来读取和中管理是通过双机热备份系统,用户的数极大地保护了数据的安全性和保密性。存储,并由专业人员进行管理,备机主动替代主机工在一台服务器出现故障时,据存放在外接共享磁盘阵列中,作,保证网络服务不间断。 心双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系”跳统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统双机软件无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(专业资料 Word .

RoseHA)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机备份方案中,根据两台服务器的工作方式可以有三种不同的工作模式,即双机热备模式、双机互备模式和双机双工模式。下面分别予以简单介绍: 双机热备模式即目前通常所说的active/standby 方式,active服务器?处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。这是目前最理想的一种模式。 双机互备模式,是两个相对独立的应用在两台机器同时运行,但彼此均?设为备机,当某一台服务器出现故障时,另一台服务器可以在短时间内将故障服务器的应用接管过来,从而保证了应用的持续性,但对服务器的性能要求比较高。服务器配置相对要好。 双机双工模式: 是目前Cluster(集群)的一种形式,两台服务器均为?活动状态,同时运行相同的应用,保证整体的性能,也实现了负载均衡和互为备份。WEB服务器或FTP服务器等用此种方式比较多。 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式,低成本模式。 基于存储共享的双机热备是双机热备的最标准方案。这种方式采用两台服务器,使用共享的存储设备(磁盘阵列柜或存储区域网SAN)。两台服务器可以采用热备(主从)、互备、双工(并行)等不同的方式。在工作过程中,两台服专业资料 Word .

双机热备份软件介绍

双机热备份软件介绍 1、PrimeCluster(PCL)HA集群软件产品概述 PrimeCluster HA(PCL HA)是德国富士通-西门子计算机公司(Fujitsu-Siemens Computers)提供的业界领先的支持双机热备和多节点集群的高可用管理软件。 PCL HA是一种应用与系统高可用性(High Availability)管理器。它为关键业务应用及其相关资源提供了能够持续访问的平台。PCL HA可为任何类型的应用、服务或数据提供最通用的高可用性环境。最主要的优点在于自动识别系统故障及组件错误,并具有诸如透明本地恢复或应用故障转移(Failover)等合适的恢复措施。PCL HA拥有多方向故障转移功能——集群内任一节点均可接管其他节点的功能。若特定服务器出现故障,它所运行的应用会分配给余下正常运行的服务器,使管理员能灵活而有效地应用系统资源。由于应用可通过管理干预转移到其他服务器,这样就能在不中断操作的情况下对集群进行扩容。 PCL HA for Linux同目前市场上其他的基于开放源代码的HA软件不同,PCL是由FSC完全自行开发的Linux平台上的高可用软件,它在维护、故障排除、升级、售后服务方面都能够有充分的保障。同时根据PCL用户的反馈,对于开放源代码的HA类的系统关键软件,最终用户普遍对其版本更新能力、数据安全性和故障(特别是兼容性及底层故障)的排除能力普遍持怀疑态度。PCL for Linux在欧洲已经有相当的关键业务成功案例,在中国也有上百个成功安装使用的案例,因此,最终用户对PCL的接受度明显较高。 PCL HA做为一个高可靠的HA软件,以德国富士通-西门子公司的先进技术、严谨作风和可靠信誉为后盾,为用户提供系统高可用性方面的可靠保障,是关键应用下服务器集群的理想选择。 PCL HA高可用软件应用环境 PCL HA支持的操作系统有Linux和Solaris。 Intel-based的Linux发行版: ?RedHat Enterprise Linux ES/AS 3 (up to Update 5) ?RedHat Enterprise Linux ES/AS 4 (up to Update 2)以及64bit版本 ?SuSE Linux Enterprise Server 8 ( up to SP4) ?SuSE Linux Enterprise Server 9 ( up to SP2)以及64bit版本 ?以及各种兼容上述两种发行版的Linux,比如红旗、中标、CentOS等等 Sparc-based的Solaris ?Solaris 8 / 9 / 10 注:上述操作系统为PCLv4.2A00支持的操作系统,随着操作系统的升级,PCL也会做出相应的版本更新

双机热备实施方案

双机热备安装步骤 ●安装WINNT4 ●安装IE4.01SP1 ●安装Microsoft cluster server ●安装WINNT4 Option Pack ●安装WINNT4SP4 ●安装Microsoft SQL Standard Server7 一、WINNT4.0安装步骤 此安装过程涉及SCSI本地硬盘、磁盘阵列、网卡、RAID管理软件的安装。 1、插入WINNT光盘; 2、按F6(为了从软盘安装SCSI本地硬盘驱动程序); 3、安装SCSI本地硬盘驱动; 4、per server for: 40 5、选择server type(注:做两机热备时,分别设置为一个“主域”,另一个“备用域”。另外,设置“备份域”时,“主域”必须打开); 6、安装网卡驱动(a:\nicdrv); 7、不选择DHCP; 8、安装WINNT的SP3(在第一张光盘); 9、安装磁盘阵列驱动(控制面板里“SCSI Adapters”,进入安装界面里选“a:\netraid”); 10、用“disk amanagement”为两机重新设置盘符(现将“磁盘阵列”设置为统一的“D:”); 11、在WINDOWS界面安装RAID管理软件(e:\cluster\netraid\nt40_cl\utility\disk1\setup)。

二、WINNT4 IE4.01SP1安装 三、Microsoft cluster server安装 其他信息:安装microsoft cluster server软件时,应先在运行“nhloader.exe”命令,打开cluster软件安装平台。(具体详见:“setting up an MSCS cluster P63~P65“) 四、WINNT4 Option Pack安装 五、WINNT4 SP4安装 六、Microsoft SQL Server7安装 七、Appendix

双机热备的步骤

双机热备的步骤 sybase双机问题 ,两台IBM3650,DS3400阵列,用的ROSEHA双机软件。SYBASE 12.5在win2003上不能自动启动,SYBASE应如何建库啊???lllenxue发表于2008-4-2814:07 看一下sybase的服务设置是不是自动启用的 建库进入控制台,建库之前先建设备,之后在设备上按你实际需要创建数据库 netmaple发表于2008-4-3009:33 这个知道呀,就是sybase做双机建库后备份机就不能起SYBASE服务了,不知道做双机如何建库 lllenxue发表于2008-4-3014:19 你参考一下这篇文章,希望对你能有所帮助 ROSE HA3107的安装过程(Sybase)

安装环境: 两台服务器(以下分别称为“服务器1”和“服务器2”,一套磁盘整列柜,Sybase数据库软件,ROSE HA3107软件。) 安装过程: 1、安装WINDOWS NT4.0 (1)在安装NT4.0的过程中,必须安装SNMP和Wins服务(WINDOWS网际名称服务)。 (2)将所有的驱动程序安装好,配置好网络。 (3)安装Services Pack。(SP4,SP5都可以) (4)在两台NT服务器的磁盘管理器中查看磁盘柜中将要安装数据库的卷的盘符是否相同,该盘符必须相同。 2、安装Sybase数据库 (1)在公共磁盘上建立Sybase目录,在其下建立Data,Install 两个子目录。 (2)关闭服务器2,在服务器1上安装Sybase数据库。在安装过程中,将程序文件安装在本地硬盘上,把库文件安装在磁盘柜上,然后重启计算机。 (3)安装完毕后,进入Sybase的Server Config中,删除数据库安装过程中默认建立的SQL Server,Backup Server,Monitor Server。 (4)将公共磁盘Sybase\Data目录下的Master.dat,Sybprocs.dat文件删除。

在linux(redhat)下双网卡负载均衡(lacp)

(一)linux配置 #cat /boot/config-kernel-version |grep -i bonding CONFIG_BONDING=m 返回CONFIG_BONDING=m表示支持,否则需要编译内核使它支持bonding 也可以用:查看一下内核是否已经支持bonding:modinfo bonding 第一步:创建一个ifcfg-bondX # touch /etc/sysconfig/network-scripts/ifcfg-bond0 新建一个bond0配置文件 # cat /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 BOOTPROTO=static IPADDR=1.1.1.2 NETMASK=255.255.255.0 BROADCAST=1.1.1.255 NETWORK=1.1.1.0 GATEWAY=1.1.1.1 ONBOOT=yes TYPE=Ethernet 编辑ifcfg-bond0如上 第二步:修改/etc/sysconfig/network-scripts/ifcfg-ethX 这个实验中把网卡1和2绑定,修改/etc/sysconfig/network-scripts/ifcfg-ethX相应网卡配置如下: # cat /etc/sysconfig/network-scripts/ifcfg-eth1 TYPE=Ethernet DEVICE=eth1 HWADDR=00:d0:f8:40:f1:a0 网卡1mac BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes # cat /etc/sysconfig/network-scripts/ifcfg-eth2 TYPE=Ethernet DEVICE=eth2 HWADDR=00:d0:f8:00:0c:0c 网卡2mac BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes

服务器双机热备方案

双机热备方案 双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 1.集群技术 在了解双机热备之前,我们先了解什么是集群技术。 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。 其中,只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。可见,双机热备是集群技术中最简单的一种。 2. 双机热备适用对象 一般邮件服务器是要长年累月工作的,且为了工作上需要,其邮件备份工作就绝对少不了。有些企业为了避免服务器故障产生数据丢失等现象,都会采用RAID 技术和数据备份技术。但是数据备份只能解决系统出现问题后的恢复;而RAID

技术,又只能解决硬盘的问题。我们知道,无论是硬件还是软件问题,都会造成邮件服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。 要恢复服务器,再轻微的问题或者强悍的技术支持,服务器都要中断一段时间,对于一些需要随时实时在线的用户而言,丢失邮件就等于丢失金钱,损失可大可小,这类用户是很难忍受服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 3. 实现方案 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。 1)基于共享的存储设备的方式 基于存储共享的双机热备是双机热备的最标准方案。对于这种方式,采用两台服务器(邮件系统同时运行在两台服务器上),使用共享的存储设备磁盘阵列(邮件系统的数据都存放在该磁盘阵列中)。两台服务器可以采用互备、主从、并行等不同的方式。在工作过程中,两台服务器将以一个虚拟的IP地址对外提供服务,依工作方式的不同,将服务请求发送给其中一台服务器承担。同时,服务器

双机热备方案

双机热备方案

双机热备方案

一:需求分析 客户当前采用二台IBM X3850X5服务器加ROSE MIRRO HA软件在实时数据镜像基础上,实现了不需要共享存储的纯软高可用性系统。RoseMirrorHA 经过现有的以太网络基础环境,经过TCP/IP 协议,在两台主机之间实现了数据的实时镜像,不需要额外的硬件投资。在充分利用已有资源的基础上,经过先进的软件技术,实现纯软的高可用性系统。但ROSE MIRRO HA只是针对高可用性的双机热备,但客户的数据量过大时,如果一台服务器出现故障,另一台服务器在接管数据时将会对庞大的数据进行校验,这将会是一个漫长的过程,而客户的应用将会受到灾难性的问题。考虑到数据量增大的问题,因此建议客户考虑使用存储来实现双机热备份,这样将会在服务器出现故障的情况下,避免需要经过漫长的等待来实现应用的切换,这样将真正实现高可用性和高安全性。 二:双机介绍 双机热备份技术是一种软硬件结合的较高容错应用方案。该方案是由客户现用两台X3850X5服务器经过IBM B24光纤交换机和外接共享磁盘阵列柜DS5020来连接,并经过相应的双机热备份软件来实现的双机热备方案。在这个容错方案中,操作系统和应用程序安装在两台服务器的本地系统盘上,整个网络系统的数据是经过磁盘阵列集中管理和数据备份的。数据集中管理是经过双机热备份系统,将所有站点

的数据直接从中央存储设备读取和存储,并由专业人员进行管理,极大地保护了数据的安全性和保密性。用户的数据存放在外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证应用服务不间断。双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“心跳”,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者备用系统无法收到主机系统的“心跳” 信号,则系统的高可用性管理软件认为主机系统发生故障,主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证应用服务运行不间断。 双机热备份方案中,根据两台服务器的工作方式能够有三种不同的工作模式,即:双机热备模式、双机互备模式和双机双工模式。 双机热备模式即当前一般所说的active/standby 方式,active 服务器处于工作状态;而standby 服务器处于监控准备状态,服务器数据包括数据库数据同时往两台或多台服务器写入(一般各服务器采用RAID磁盘阵列卡),保证数据的即时同步。当active 服务器出现故障的时候,经过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。典型应用在证券资金服务器或行情服务器。这是当前采用较多的一种模式,但

负载均衡软件实现与硬件实现方案

该文档是word2003—word2007兼容版 软件、硬件负载均衡部署方案 目录 1、硬件负载均衡之F5部署方案 (2) 1.1网络拓扑结构 (2) 1.2反向代理部署方式 (3) 2软件负载均衡方案 (4) 2.1负载均衡软件实现方式之一- URL重定向方式 (4) 2.2负载均衡软件实现方式之二- 基于DNS (5) 2.3负载均衡软件实现方式之三- LVS (8) 2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16) 总结: (16)

1、硬件负载均衡之F5部署方案 对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。 BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。 利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。 1.1网络拓扑结构 网络拓扑结构如图所示:

最新服务器双机热备解决方案

服务器双机热备解决方案

前言 数据信息是当今社会进步、发展的关键。面对日益庞大的计算机网络,用户的要求是网络能够可靠、高速、稳定地运行。当前大部分网络服务都是采用中心服务器的模式(只有一台服务器),服务器的高可靠性、高可用性是网络安全运行的关键,一旦服务器出现故障,所提供的服务就会被中断,影响正常工作,并可能丢失关键数据,从而造成严重后果。无论对企业的有形和无形资产都带来不必要的损失。如何在故障情况下尽快恢复使用并保证数据的安全,已经成为一个日渐突出的问题。服务器双机热备份技术正是解决由软硬件故障引起可靠性降低的有效措施,该技术较为成熟,成本相对较低,具有安装维护简单、稳定可靠、监测直观等优点,在网络保障中获得了广泛的应用。 一、双机热备阐述 什么是双机热备? 所谓双机热备份,概况地说,就是用网络两台服务器连接起来,平时互相备份,共同执行同一服务。当一台服务器停机时,可以由双机中的另一台服务器自动将停机服务器的业务接管,从而在不需要人工干预的情况下,保证系统能持续提供服务。 什么时候需要双机热备呢? 一般服务器要长年累月(7 X 24 小时)不间断工作,其备份工作就绝对少不了。所以,决定是否使用双机热备,应首先对系统的重要性,以及终端用户对服务中断的容忍程度进行考虑,然后再来决定是否使用双机热备。比如网络中的用户最多能容忍多长时间恢复服务?如果服务不能很快恢复会造成什么样的后果等等。

二、双机热备拓扑图以及工作原理 双机热备工作示意图

三、双机热备方案介绍 在高可用性方案中,操作系统和应用程序是安装在两台服务器的本地系统盘上的,而整个网络系统的数据是通过磁盘阵列集中管理和数据备份的。数据的集中管理是通过双机热备份系统,将所有站点的数据直接从中央存储设备来读取和存储,并由专业人员进行管理,极大地保护了数据的安全性和保密性。用户的数据存放在外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。 双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“心跳”,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(双机软件RoseHA)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机备份方案中,根据两台服务器的工作方式可以有三种不同的工作模式,即双机热备模式、双机互备模式和双机双工模式。下面分别予以简单介绍: ?双机热备模式即目前通常所说的active/standby 方式,active服务器处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。这是目前最理想的一种模式。 ?双机互备模式,是两个相对独立的应用在两台机器同时运行,但彼此均设为备机,当某一台服务器出现故障时,另一台服务器可以在短时间内将故障服务器的应用接管过来,从而保证了应用的持续性,但对服务器的性能要求比较高。服务器配置相对要好。 ?双机双工模式 : 是目前Cluster(集群)的一种形式,两台服务器均为活动状态,同时运行相同的应用,保证整体的性能,也实现了负载均衡和互为备份。WEB服务器或FTP服务器等用此种方式比较多。

相关主题