搜档网
当前位置:搜档网 › 超融合数据连续保护软件软件双机热备系统解决方案

超融合数据连续保护软件软件双机热备系统解决方案

超融合数据连续保护软件软件双机热备系统解决方案
超融合数据连续保护软件软件双机热备系统解决方案

超融合数据连续保护软件软件双机热备系统解决方案

编制日期:2020年2月10日

目录

1 项目背景 (3)

1.1当前数据中心面前的问题 (4)

1.1.1 传统架构的制约 (4)

1.1.2 可靠性依赖硬件 (5)

1.1.3 运维管理复杂 (5)

1.1.4 集群臃肿 (5)

1.2数据中心调研 (5)

1.3业务系统调研 (6)

1.4超融合系统对比传统架构 (6)

2 方案设计 (9)

2.1设计原则 (9)

2.2建设目标 (10)

2.3超融合系统总体设计方案 (10)

2.4超融合系统详细设计方案 (11)

2.4.1 搭建超融合系统环境 (11)

2.4.2 对原有设备进行淘汰和利旧整合 (11)

2.4.3 建立统一的云管理平台 (11)

3 功能模块 (12)

3.1功能管理模块 (13)

3.1.1 统一云管平台高可用 (13)

3.1.2 时间管理 (13)

3.1.3 资源管理 (13)

3.2资源调度模块 (15)

3.2.1 调度与策略 (15)

3.3计算模块 (15)

3.3.1 方案概述 (15)

3.3.2 计算规定功能 (15)

3.4存储模块 (16)

3.4.1 方案概述 (16)

3.4.2 存储规定功能 (17)

3.5安全模块 (18)

3.5.1 方案概述 (18)

3.5.2 方案的框架 (18)

3.5.3 网络隔离 (19)

3.5.4 安全网元 (19)

4 方案优势 (22)

4.1数据可靠性优势 (22)

4.2高级计算虚拟化优势 (22)

4.3冗余数据路径优势 (23)

4.4自动故障恢复 (23)

4.5自主研发 (23)

4.6集中管理 (24)

4.7易于部署 (24)

4.8性能 (24)

4.8.1 数据本地化 (24)

4.8.2 缓存机制 (25)

5 项目预算 (25)

1项目背景

随着全球互联网浪潮和数字技术的普及,传统IT架构已无法适应当今IT突飞猛进的变化。从基础设施层面来看,传统IT架构无法满足日益增长的业务需求,在集群资源利用率达到一定程度之后,传统IT架构无法进行快速横向扩展,造成了要么数据孤岛,要么性能急速降低。

问题驱动了技术的进步,伴随着新技术的诞生。在云时代背景下,服务器虚拟化成为了一种新的主流形态。服务器虚拟化在经过多年的高速发展后已经越来越成熟,被接受和应用的领域也越来越广泛。它有效降低了硬件采购成本,提高了资源利用率和可用性,同时大幅提升了运维效率,缓解了IT建设面临的诸多压力。但是,在虚拟化时代的计算集群与存储集群依然是分开的,整个集群“同时横向扩展”的功能还是无法得到解决。

显然,新技术的出现成为另一种期待。SSD的出现带来了软件定义存储(下称“SDS”)的可能,随着SDS的不断完善,IT架构迈向了“超融合”的时代,实现了计算、存储、网络、安全的融会贯通,解决了灵活部署,灵活扩展,减少投入等诸多问题。

为了满足未来业务发展的需要,有效地解决数据安全、集中管控、降低运维成本、快速部署、跨平台访问、节能环保等问题,德州市有限公司一直在关注通过虚拟化、分布式及超融合等互联网相关技术来解决现有数据中心的各种挑战,随着虚拟化及云计算的日益成熟,计划将其数据中心新业务系统运行在的基于互联网基因的超融合基础架构平台上。

1.1当前数据中心面前的问题

1.1.1传统架构的制约

在传统数据中心许多组件都是紧密耦合的,牵一发而动全身,很作出改变。造成在各个行业中,企业运维都存在了“海量数据管理压力”、“资源利用率低下”、“系统上线慢”、“业务可靠性差”等问题。

在虚拟化数据中心环境中,计算集群的存储服务靠FC-SAN/IP-SAN提供,造成了两个方面的制约:

首先,由于存储控制器要一步到位,导致了存储无法横扩展,只能进行scale-up扩容。

其次,虚拟化集群中的调度模块无法对底层存储资源进行统一管理和调度,导致了运维需要管理不同功能的系统。

1.1.2可靠性依赖硬件

永远都存在单点问题,性能是最大的痛,纵向扩展性能有限;即使考虑使用分层,需要额外购买软件许可,成本开销变大。虽然使用的x86服务器虚拟化,但共享存储依然是单点,必须双存储或本地备份,都要额外成本。容灾方案极其复杂,恢复又无保障,不同厂商品牌设备组合效果甚微,而且成本高昂。

1.1.3运维管理复杂

传统数据中心环境中,复杂冗余长的规划采购动辄就是几个月,而且采购回来的设备,通常连接配置都较复杂,需要分别协调服务器和存储等相关厂商的工程师过来配置调试设备,如RAID配置,LUN划分,Zoning等。等交付以后,日常就需要从存储,计算和网络多方面进行硬件和软件的维护和管理,一旦发生故障,处理比较麻烦,得一层一层的进行排查。加上各个存储厂商的相关管理系统都互不兼容,当采购多家厂商的存储设备来保证数据的安全可靠性时,给管理人员也带来了较大的不便,需要专业的存储管理人员分别登录到不同的存储管理系统进行管理维护。

1.1.4集群臃肿

新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。一方面,管理硬件基础设施的压力和成本会不断增大;另一方面,由于应用的多样性,服务器和存储难于有效整合,服务器的资源使用都远低于其实际的处理能力,计算能力和存储容量难以充分利用。

1.2数据中心调研

现有数据中心的挑战:

●需分别购买服务器、存储交换机、存储、虚拟化、备份、安全、监控等

●从立项、采购、到货、安装、配置、培训、使用,可长达三个月

●运维复杂,人工成本高、兼容性差

●机柜空间、空调制冷、设备耗电

●应用系统缺乏高可用性保护

效率、灵活性、规模、成本和数据保护。使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。

图1:传统共享存储架构

图2:超融合架构

下表列举超融合架构与传统集中存储架构差异:

2方案设计

2.1设计原则

在方案设计中我们将遵循以下总体原则:

●以业务需求为导向

技术架构最终是为业务服务的,因此技术架构的设计一定要以业务的需求为导向,充分考虑非功能需求,例如系统的重要程度、安全要求、业务连续性等。

●遵循互联网标准

新业务系统都是面向互联网和物联网业务,因此架构体系要遵循互联网数据中心设计和建设标准,吸收互联网架构的优势。

●提高资源利用率

现已经部署了大量的服务器,资源使用率低是较突出的一个问题,因此在项目中,提高资源利用率成为一个重要的任务。

●动态扩展性

在IT发展趋势中,动态基础架构已经成为IT基础架构的发展方向。使IT基础架构成为一个动态、灵活、具有弹性的IT基础架构,同时在IT实时地运营过程可进行灵活的资源动态调整。资源扩展要体现在计算资源和存储资源的同时扩展。

●分布式一切

应用系统的高可用性是保障服务等级的重要因素,在架构设计中应该以软件定义为主,借助软件的分布式架构满足高可用性要求,实现系统架构和平台架构的无单点故障、无单点瓶颈问题,保障新一代的业务系统健壮性。

●安全性

在系统设计中,安全性是一个非常重要的问题。在架构中需要考虑到虚拟化架构内外部的安全,包括数据安全等问题,以保证整个系统长期安全稳定的运行。

2.2建设目标

●无单点故障和无单点瓶颈;

●“永远在线操作”的业务系统;

●跨软/硬组件的深度分析能力;

●利用虚拟化能力的云数据中心;

●运营管理和维护:简单、简单、再简单;

●IT资源全面软件定义;

传统IT架构(包括虚拟化架构),由于存储的问题无法达到全面软件定义的效果,在新的架构中,采用新架构要解决传统架构不能解决的问题。首当其冲自然是存储,把存储资源全面池化,通过软件定义实现出来。解决存储问题,自然必要实现软件定义计算、软件定义网络、软件定义安全等等,也就是达到“软件定义数据中心”。

2.3超融合系统总体设计方案

超融合架构在数据中心中承担着计算资源池和分布式存储资源池的作用,极大地简化了数据中心的基础架构,而且通过软件定义的计算资源虚拟化和分布式存储架构实现无单点故障、无单点瓶颈、弹性扩展、性能线性增长等能力;在虚拟化层可以自由选择Hypervisor 的品牌,包括KVM、VMware vSphere、MicroSoft Hyper-v;而且通过简单、方便的管理界面,实现对数据中心基础架构层的计算、存储、虚拟化等资源进行统一的监控、管理和运维。

图:超融合总体方案设计图

2.4超融合系统详细设计方案

2.4.1搭建超融合系统环境

在数据中心机房新建一套超融合系统集群,并对医院现有的业务系统进行评估,按照评估结果,将适合的业务系统和数据迁移至超融合平台,打破原有竖井式的纵向扩展架构。xxx 等核心业务数据库系统不建议做迁移,由于其对物理机性能要求比较高,而且有数据一致性要求。而目前市场上各个厂商的超融合系统的分布式存储对数据库支持能力不同,为了保证xxx等核心业务数据库的性能和数据的实时性,需要对选定的超融合系统做更详细的测试,确定满足条件后再进行迁移。

2.4.2对原有设备进行淘汰和利旧整合

建议淘汰的设备:对于使用超过5年以上的服务器,不建议继续使用,可以进行淘汰处理,性能无法达到要求,避免潜在的安全隐患,同时还可以降低整体能耗成本。

利旧整合的设备:按照推荐的配置进行调整可以选择部分性能比较好,未过保修期(通常服务器保修年限为三年)且具有整合价值的服务器,然后部署超融合系统,加入到超融合系统群集当中。建议单独设计一个资源池,不要与新采购的超融合系统混用一个资源池,同样做好安全隔离。因为老旧的服务器,即使部署了相同超融合系统软件,由于其 CPU 型号比较旧,而且型号不统一,很难和新采购的超融合系统设备相互兼容,不建议部署在一个资源池。

2.4.3建立统一的云管理平台

云管理平台主要负责对资源的管理、弹性调度以及操作维护、资源监控等综合管理功能,在同一个 web 界面提供云资源管理、云运维管理和云服务管理的功能。在采购新的超融合系统以后,要求必须能够和现有的云管理平台兼容,能够提供接口进行二次开发和对接。或者直接采用超融合系统的云管理整合原有的虚拟化资源,但是杜绝同时出现多个云管理平台,这样非常不利于资源的统一管理和调配,给企业的信息化管理带来很大的困难。云资源管理负责云平台资源虚拟化和资源分配,将物理资源(计算、存储、网络等)转换成可动态调整的虚拟资源,供虚拟机使用,提供高可用性的弹性虚拟机,保障业务系统的连续性与虚拟机的安全隔离。

云运维管理可以实现物理设备、虚拟设备、应用系统的集中监控、管理维护自动化与动态化。

云服务管理对外的主要工作是实现用户管理、集群管理、业务模板管理、虚拟机管理、虚拟机发放、统一硬件管理、告警、监控等功能。

3功能模块

超融合架构解决方案融合了:计算、网络、存储、安全四大模块,将各x86服务器上的cpu、内存、硬盘、网络进行抽象、池化,对外提供自动化的部署/服务等等,通过全虚拟化的方式构建IT架构资源池。所有的模块资源均可以按需部署,灵活调度,动态扩展。并且为后期迈向私有云平台奠定基础,从而能够实现多租户的管理及计费审计等功能。

超融合架构解决方案软件架构主要包含如下图各个模板,可以通过一体机的方式实现开机即用,也可以采用纯软件形成进行交互。只要配合传统的园区网交换机(背板带宽和交换容量够用即可)即可完成整个平台的搭建,无需各种功能复杂、价格昂贵的数据中心级交换机。网络功能可由超融合上安全资源池里面的虚拟网元设备实现。

3.1功能管理模块

功能管理模块可以针对物理主机、虚拟机、内置/外置存储进行全面的系统管理。针对物理主机增加/删除、用户创建/删除/密码修改、服务发现和添加,多租户管理,数据的可视化拉取,信息收集,硬件的退役操作,工单申请,租户计费等功能。

此外,还可以针对管理员进行权限的管理和划分,后续通过升级可以支持多租户业务场景的管理。

从而,只需要一个管理界面,就可以帮助运维人员高效、简便的实现云计算中心IT资源的部署、运维、排障。

3.1.1统一云管平台高可用

统一云管平台是一个分布式管理系统,由Web前端界面、Nginx和API Server组成。Nginx提供WebUI页面的访问服务,同时将API请求反向代理到manager Server;manager Server连接分布式集群系统,管理TopHC的集群。

统一云管平台为高可用模式,支持多节点登录。统一云管平台通过Systemd来保证本机的manager Server 存活状态一致, manager Server基于raft实现选主,前端往API Server 的Leader发送API请求。当前API Server的Leader宕机,Candidate会重新选主,因而API Server的Leader也发生了切换。前端页面发现原来API Server Leader访问不了后,将API请求发送到新的manager Server Leader上。

3.1.2时间管理

集群内部的所有机器与管理节点,通过NTP完成时间同步。管理节点提供自定义设置NTP时间同步的目标服务器,通常可以设置为数据中心的NTP服务器,或者外部NTP服务器。

3.1.3资源管理

服务器管理模块

●虚拟机生命周期管理模块

●存储卷生命周期管理模块

3.2资源调度模块

3.2.1调度与策略

TopHC提供给用户的都是虚拟的资源,虚拟资源具体由那些物理资源承载,需要通过计算当前集群的资源使用情况和各个资源的状态,以达到资源使用的均衡和避免潜在的故障风险。

分布式资源调度系统DRS是根据集群内部的实时监控系统获取的物理状态,结合均衡分布策略、人工设置的策略(如标签)和电源策略,对物理资源进行过滤及筛选,得出最合适的物理承载。在集群运行状态,DRS系统会根据实时监控系统上报的状态,会对资源进行二次调度。

3.3计算模块

3.3.1方案概述

TopHyper虚拟化平台作为介于硬件和操作系统之间的软件层,采用裸金属架构的X86虚拟化技术,实现对服务器物理资源的抽象、池化,将CPU、内存、I/O等服务器物理资源转化为一组可统一管理、调度和分配的逻辑资源,并基于这些逻辑资源在单个物理服务器上构建多个同时运行、相互隔离的虚拟机执行环境,实现更高的资源利用率,同时满足应用更加灵活的资源动态分配需求,譬如提供热迁移、HA等高可用特性,实现更低的运营成本、更高的灵活性和更快速的业务响应速度。

3.3.2计算规定功能

1)迁移

迁移是将虚拟机整体的迁移,包括所有软件(也包括操作系统)复制到另一台宿主机上。TopHC支持两种迁移:静态迁移和动态迁移。

静态迁移需要有一段时间暂停服务,以便将虚拟机数据迁移。TopHC系统内部是一套分布式存储系统,硬盘数据存储在分布式存储系统中,通过静态迁移无需将硬盘数据迁移,所以暂停时间较短,只需要复制虚拟内存镜像到另一台宿主机恢复启动。

动态迁移在保证虚拟机正常运行的同时,无需停止虚拟机即可完成迁移到另一台宿主机。迁移步骤与静态迁移几乎一致,硬盘数据无需迁移,内存数据动态实时复制。整个动态迁移

过程暂停时间非常短暂(10毫秒),用户无感知。

2)克隆

克隆是将指定虚拟机复制一个一模一样的虚拟机。TopHC支持两种克隆方式:链接克隆和完全克隆。

链接克隆实在源虚拟机在克隆出目标虚拟机,两个虚拟机使用同一份硬盘空间,省去了硬盘拷贝数据的时间,在之后的运行过程两台虚拟机的差异部分通过写时拷贝存储到不同的地方。适合应用于多虚拟机相同数据多的场景,比如VDI。

完全克隆是将虚拟机完整拷贝一份作为目标虚拟机,至完全克隆完成,两台虚拟机便再无关系。克隆耗时长,克隆的虚拟机之间相互独立。

3)快照

快照是将虚拟机某个时间点的状态保存下来,是一种增量备份的方式,所以单个快照是无法使用的,快照必须将底层的快照合并在一起才能得到快照完整的数据,也正是由于使用增量备份的方法,创建快照相对于备份是比较快的。

TopHC支持秒级快照,大大减少了由于快照影响虚拟机业务正常运行。TopHC快照以树形组织(如下图),可将虚拟机恢复到任一个快照,而不影响当前树形快照的结构。

3.4存储模块

3.4.1方案概述

分布式存储在超融合系统中扮演十分重要的角色,为了更好适应超融合系统,提供更加可靠的产品和服务,自主研发了一套分布式存储系统,而非采用开源系统。这套分布式存储

系统为TopHC量身定制:

3.4.2存储规定功能

为了项目整体的长期发展,本解决方案中利用的存储产品涉及块设备与文件系统存储两种。

1)标准ISCSI接口

分布式存储系统以两种方式提供块接口:1.标准块设备;2.iSCSI/iSER target。如下图:虚拟存储设备可以提供标准块设备接口,容器、虚拟机、应用程序可以将卷当成本地磁盘使用;也可以提供iSCSI/iSER target,容器、虚拟机、应用程序可以通过标准iSCSI和iSER访问虚拟块设备。

●标准块设备

支持标准SCSI协议,对于上层应用卷与本地磁盘在绝大多数场景下无任何区别,可直接对卷进行读写,亦可对卷格式化文件系统,挂载后,进行读写。

●iSCSI/iSER Target

支持标准iSCSI协议,可通过iSCSI initiator在远端发现并使用微控制器生成的iSCSI target。

支持CHAP身份验证以保证客户端的访问是可信与安全的。CHAP全称是PPP询问握手认证协议(Challenge Handshake Authentication Protocol)。该协议可通过三次握手周期性的校验对端的身份,可在初始链路建立时以及链路建立之后重复进行。通过递增改变的标识符和可变的询问值,可防止来自端点的重放攻击,限制暴露于单个攻击的时间。

iSER(iSCSI Extensions for RDMA)是iSCSI使用RDMA的扩展协议,该协议允许网络数据直接与主机内存之间进行数据传输,而不需要数据拷贝和CPU介入。

RDMA(Remote Direct Memory Access)远程直接数据存取,是应用程序内存与网络适配器直接传输数据的零拷贝(zero-copy)技术。

2)文件系统接口

分布式存储系统提供标准的NFS、SMB文件共享协议,满足标准NAS文件共享资源存储需求。

文件共享协议:

●NFS(Network File System)

UNIX系统使用最广泛的一种文件共享的客户/服务器协议。

●CIFS(Common Internet File System)

支持客户端通过TCP/IP协议对处于远程计算机上的文件和服务发起请求。

3.5安全模块

3.5.1方案概述

当前软件定义网络成为了技术发展的趋势,在国内推出全系列的数据中心安全、优化产品(下一代防火墙、应用交付、负载均衡、堡垒主机、网络审计、数据库审计、日志审计等)软件虚拟化解决方案。这些过去需要以专用硬件方式部署的产品,在TopHC中,可以以软件镜像的方式,完美支持在TopHyper服务器虚拟化环境下的部署。从而极大的简化数据中心网络的架构,为各个租户的虚拟应用按需、灵活的虚拟扩展出各种安全和优化方案,同时还便于划分清楚各方的运维职责。

3.5.2方案的框架

图:安全框架

安全是一个永恒的话题,在互联网高速发展的背景下,安全显得尤为重要。安全可以说是无处不在,在现在企业网络管理中,已经不是靠在Internet出口部署一台防火墙就可以高枕无忧了,来自外部攻击手段层出不穷,变幻莫测,所以一台防火墙已无法做到一劳永逸。安全隐患是无法消除的,只能不断减小。在超融合环境中,包含了计算,存储,网络,安全方面也分为了网络安全、应用安全、数据安全和主机安全。

3.5.3网络隔离

TopHC的网络通信划分为计算网络,存储网络,管理网络和备份网络:

●计算网络:为用户提供业务通信,为虚拟机网卡提供一个出口网络,对外对接业务系统。

●存储网络:为超融合中的分布式存储提供数据交互网络,该网络需要万兆网络的支持。

●管理网络:负责整个系统的管理,维护,以及集群初始化。

●备份网络:该网络主要负责TopHC自带的备份功能做需要的网络。在TopHC中可以设置

自动备份数据的功能,并且允许S3/cifs/nfs接口。

3.5.4安全网元

●虚拟安全网关

在超融合环境中,具有多租户的特征,与传统安全域划分相对固定不同,在超融合下域

的边界是动态的,域控制必须适应快速弹性架构要求。

多租户强调了“租”的概念,也可以简单理解为各个租户之间的资源完全独立,但是特定情况下,需要互相访问。站在防火墙的角度,超融合平台上的虚拟网关必须具备租户之间的控制能力。

TopHC中的虚拟安全网关(vGate)是以虚拟机形式部署在超融合平台上,并通过虚拟化平台接入引擎获得虚拟化平台的网络通信数据,从而实现对所有虚拟机之间以及虚拟化平台平身网络通信进行防护。并且vGate部署在租户内部,控制租户内部网络与外界之间的连接,每个租户可自定义租户内部vGate数量。

●VPN

在TopHC超融合当中,集成了IPSec VPN。IPSec VPN支持标准的IKE和IPSec协议,也就是说,该IPSec VPN不仅可以和的IPSec VPN建立隧道,也可与其他支持IKE标准协议的VPN设备协商并建立标准的IPSec VPN隧道。此外,移动远程用户(VRC,VPN Remote Client)可以通过VPN远程客户端与IPSec/SSL VPN多合一网关建立VPN隧道。IPSec VPN在超融合当中同样也虚拟机的形式存在,为每个租户提供VPN服务。

●分布式防火墙

分布式防火墙可以控制东西向流量的安全问题,Topsec分布式防火墙分为两个部分,下图所示:

双机热备的数据备份和灾难备份方案

双机热备的数据备份和灾难备份方案 一、方案背景 1. 用户目前数据环境及需求 根据提供的信息,目前用户的系统环境如下描述:操作系统:Windows 操作系统,关键数据:VSS 数据库现在用户要备份的服务器为2台数据库服务器做双机热备集群,整个系统对于备份的要求:备份系统稳定可靠,保证随时能够备份/还原关键数据;对服务器有灾备的考虑,操作系统崩溃时能通过灾难备份快速恢复操作系统。同时考虑远期建设目标平滑过渡,避免重复投资。 2. 用户目前状态和存在的问题 目前用户双机服务器拓扑图如下,这样的方式存在以下问题: a) 由于主机与备机及磁盘阵列中的数据都没有备份,一旦发生磁盘阵列数据丢失、主机与备机数据丢失事故时,将会造成重大损失。 b) 当服务器操作系统崩溃时,无法快速恢复。 二、设计方案 1. 设计原则 根据上述问题建议的备份方案应该遵循以下原则:备份系统应该支持Open File 热备份功能磁盘阵列连接在专用的备份服务器上、对双机集群中的2台机器都能进行数据备份、备份软件支持定时计划备份、备份软软件支持服务器灾难备份、备份软件提供网络集中备份功能,能集中备份网络上其余SQL Server、ORACLE或文件数据,提供良好的扩展性。 2. 方案的设计 依据上述设计原则,建议采用爱数备份软件专业备份软件安装在一台备份服务器上,通过网络对双机系统进行数据备份和操作系统灾难备份。Backup Exec 作为专业的备份软件,具有以下优点: c) 专业的企业网络集中备份解决方案,一台备份服务器可以备份网络上多台服务器数据(文件服务器、VSS服务器、数据库服务器、邮件服务器等) d) 备份软件支持Open file 热备份功能,能对正在使用的数据进行备份。 e) 能根据需要制定灵活多变的备份计划任务 f) 支持服务器操作系统崩溃灾难备份/恢复

存储、集群双机热备方案

存储集群双机热备方案

目录 一、前言 (3) 1、公司简介 (3) 2、企业构想 (3) 3、背景资料 (4) 二、需求分析 (4) 三、方案设计 (5) 1.双机容错基本架构 (5) 2、软件容错原理 (6) 3、设计原则 (7) 4、拓扑结构图 (7) 四、方案介绍 (10) 方案一1对1数据库服务器应用 (10) 方案二CLUSTER数据库服务器应用 (11) 五、设备选型 (12) 方案1:双机热备+冷机备份 (12) 方案2:群集+负载均衡+冷机备份 (13) 六、售后服务 (15) 1、技术支持与服务 (15) 2、用户培训 (15)

一、前言 1.1、公司简介 《公司名称》成立于2000年,专业从事网络安全设备营销。随着业务的迅速发展,经历了从计算机营销到综合系统集成的飞跃发展。从成立至今已完成数百个网络工程,为政府、银行、公安、交通、电信、电力等行业提供了IT相关系统集成项目项目和硬件安全产品,并取得销售思科、华为、安达通、IBM、HP、Microsoft等产品上海地区市场名列前茅的骄人业绩。 《公司名称》致力于实现网络商务模式的转型。作为国内领先的联网和安全性解决方案供应商,《公司名称》对依赖网络获得战略性收益的客户一直给予密切关注。公司的客户来自全国各行各业,包括主要的网络运营商、企业、政府机构以及研究和教育机构等。 《公司名称》推出的一系列互联网解决方案,提供所需的安全性和性能来支持国内大型、复杂、要求严格的关键网络,其中包括国内的20余家企事业和政府机关. 《公司名称》成立的唯一宗旨是--企业以诚信为本安全以创新为魂。今天,《公司名称》通过以下努力,帮助国内客户转变他们的网络经济模式,从而建立强大的竞争优势:(1)提出合理的解决方案,以抵御日益频繁复杂的攻击 (2)利用网络应用和服务来取得市场竞争优势。 (3)为客户和业务合作伙伴提供安全的定制方式来接入远程资源 1.2、企业构想 《公司名称》的构想是建立一个新型公共安全网络,将互联网广泛的连接性和专用网络有保障的性能和安全性完美地结合起来。《公司名称》正与业界顶尖的合作伙伴协作,通过先进的技术和高科产品来实施这个构想。使我们和国内各大企业可通过一个新型公共网络来获得有保障的安全性能来支持高级应用。 《公司名称》正在帮助客户改进关键网络的经济模式、安全性以及性能。凭借国际上要求最严格的网络所开发安全产品,《公司名称》正致力于使联网超越低价商品化连接性的境界。《公司名称》正推动国内各行业的网络转型,将今天的"尽力而为"网络改造成可靠、安全的高速网络,以满足今天和未来应用的需要。 1.3、背景资料 随着计算机系统的日益庞大,应用的增多,客户要求计算机网络系统具有高可靠,高

RoseMirrorHA双机热备软件的安装及配置手册

双机热备软件的安装与配置指导手册 系统版本:A1 文档编号:CHI-PT-NJBL-SJRB-A0

内容简介 《双机热备软件的安装与配置指导手册》主要针对目前公司人员定位系统服务器双机热备软件的安装和配置进行了详细说明,指导现场工程师对双机热备软件进行安装及配置。 本手册共分四章节,分别为: 第一章:概述 第二章:软件的安装 第三章:服务的安装及配置 第四章:注意事项 第五章:常见故障处理 本文档的读者范围: 公司内部员工 版权声明 本文档属南京北路科技有限公司版权所有,侵权必究。 本文文件专供用户、本公司职员以及经本公司许可的人员使用,未经公司书面 同意,任何单位或个人不得以任何方式复制、翻印、改编、摘编、转载、翻 译、注释、整理、出版或传播手册的全部或部分内容。

南京北路自动化系统有限责任公司位于南京江宁经济技术开发区,是南京市高新技术企业,现有高级工程师、工程师及其他专业技术人员100余名。是专业从事煤矿通信、自动化、信息化产品的研发、生产、销售及服务的高科技公司。 公司拥有ISO9001:2000质量管理体系认证,坚持“质量第一、用户至上、至诚服务、持续改进”的质量方针,得到了广大客户的信赖和支持。目前公司产品覆盖全国10多个省、自治区,并在多个煤炭主产区设有售后服务机构。 公司以满足客户需求为己任,不断生产高性价比的产品,为客户创造价值。 南京北路自动化系统有限责任公司 联系地址:南京市江宁开发区菲尼克斯路99号 邮政编码:211106 电话号码:(025)52187543 传真:(025)52185703 邮件地址:njbestway@https://www.sodocs.net/doc/973906892.html, 客户服务电话:400-611-5166 客户支持网站:https://www.sodocs.net/doc/973906892.html,

双机热备技术C

技术白皮书 双机热备技术白皮书 双机热备技术白皮书 关键词:双机热备、主备模式、负载分担模式、数据同步、流量切换 摘要:防火墙设备是所有信息流都必须通过的单一点,一旦故障所有信息流都会中断。保障信息流不中断至关重要,这就需要解决防火墙设备单点故障问题。双机热备技术可以保障即 使在防火墙设备故障的情况下,信息流仍然不中断。本文将介绍双机热备的概念、工作 模式、实现机制及典型应用等。 缩略语英文全名中文解释 ALG Application Level Gateway应用层网关 ASPF Application Specific Packet Filter基于应用层的包过滤 NAT Network Address Translator网络地址转换 VRRP Virtual Router Redundancy Protocol虚拟路由冗余协议 OSPF Open Shortest Path First开放最短路径优先

目录 1 概述 1.1 产生背景 在当前的组网应用中,用户对网络可靠性的要求越来越高,对于一些重要的业务入口或接入点(比如企业的Internet接入点、银行的数据库服务器等)如何保证网络的不间断传输,成为急需解决的一个问题。如图1 所示,防火墙作为内外网的接入点,当设备出现故障便会导致内外网之间的网络业务的全部中断。在这种关键业务点上如果只使用一台设备的话,无论其可靠性多高,系统都必然要承受因单点故障而导致网络中断的风险。 图1 单点设备组网图 于是,业界推出了传统备份组网方案来避免此风险,该方案在接入点部署多台设备形成备份,通过VRRP或动态路由等机制进行链路切换,实现一台设备故障后流量自动切换到另一台正常工作的设备。 传统备份组网方案适用于接入点是路由器等转发设备的情况。因为经过设备的每个报文都是查找转发表进行转发,链路切换后,后续报文的转发不受影响。但是当接入点是状态防火墙等设备时,由于状态防火墙是基于连接状态的,当用户发起会话时,状态防火墙只会对会话的首包进行检查,如果首包允许通过则会建立一个会话表项(表项里包括源IP、源端口、目的IP、目的端口等信息),只有匹配该会话表项的后续报文(包括返回报文)才能够通过防火墙。如果链路切换后,后续报文找不到正确的表项,会导致当前业务中断。 双机热备解决方案能够很好的解决这个问题。在链路切换前,对会话信息进行主备同步;在设备故障后能将流量切换到其他备份设备,由备份设备继续处理业务,从而保证了当前的会话不被中断。如图2 所示,在接入点的位置部署两台防火墙,当其中一台防火墙发生故障时,数据流被引导到另一台防火墙上继续传输,因为在流量切换之前已经进行了数据同步,所以当前业务不会中断,从而提高了网络的稳定性及可靠性。 图2 双机热备组网图 双机热备可以从两个层面去理解:一个是广义的双机热备,它是一种解决方 案,用来解决网络中的单点故障问题,它通过数据同步和流量切换两个技术 来实现;一个是狭义的双机热备,它是设备支持的一个功能模块(只实现了

服务器双机热备方案定稿版

服务器双机热备方案精 编W O R D版 IBM system office room 【A0816H-A0912AAAHH-GX8Q8-GNTHHJ8】

双机热备方案 双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 1.集群技术 在了解双机热备之前,我们先了解什么是集群技术。 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。 其中,只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。可见,双机热备是集群技术中最简单的一种。 2. 双机热备适用对象 一般邮件服务器是要长年累月工作的,且为了工作上需要,其邮件备份工作就绝对少不了。有些企业为了避免服务器故障产生数据丢失等现象,都会采用RAID技术和数据备份

技术。但是数据备份只能解决系统出现问题后的恢复;而RAID技术,又只能解决硬盘的问题。我们知道,无论是硬件还是软件问题,都会造成邮件服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。 要恢复服务器,再轻微的问题或者强悍的技术支持,服务器都要中断一段时间,对于一些需要随时实时在线的用户而言,丢失邮件就等于丢失金钱,损失可大可小,这类用户是很难忍受服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 3. 实现方案 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。 1)基于共享的存储设备的方式 基于存储共享的双机热备是双机热备的最标准方案。对于这种方式,采用两台服务器(邮件系统同时运行在两台服务器上),使用共享的存储设备磁盘阵列(邮件系统的数据都存

PLC常用双机热备系统介绍与比较

PLC常用双机热备系统介绍与比较 (由txt文件修改) 对热备系统的简单分类(基于热备切换方式的分法): 一.硬件级双机热备产品: A.单机架双机热备: 同一块机架上插双电源,双CPU,有1套热备单元(欧姆龙为1个而三菱为2个),一般还可以插双通讯模块(如双以太网单元),CPU的数据交换通过机架底板电路,一般不是RIO式的分布式结构,切换速度快,一般在50ms以下。 1.Omron CVM1D和CS1D 2.Mitsubishi Q4AR 注意: Siemens使用UR2机架的S7-400H不是此类,该产品虽然插在同一块机架上,但该机架在电气上完全独立的,即把2个机架作成一体式。 B.双机架硬件级热备产品: 主、从两个机架,两套完整独立的系统,两套机架上的热备单元一般通过光纤通讯,切换速度飞快。施耐德Quantum切换速度在48ms以下。西门子的S7-400H不太清楚,请咨询技术支持。GE S90-70的切换速度看资料,在25-50ms。 1.Schneider Quantum 2.Siemens S7-400H 3.GE S90-70 4.AB ControlLogix 5000 二.总线级双机热备产品: 我不知道把此类划到硬件级热备好还是软件级热备好,还是另外拉出来单独说吧。基于总线级的通讯传输速率,总线通讯单元兼有热备切换功能。当主CPU故障时,从CPU接管I/O的控制,夺取I/O总线的控制权。切换速度其实还可以,在150-300ms内。 典型代表: 1.AB SLC500,由1747-BSN 实现RIO结构的热备。 2.Mitsubishi小Q,由CC-Link单元实现RIO结构的热备。 其实三菱的大Q和A也可以,但三菱技术支持建议用小Q。 三.软件级双机热备产品:

双机热备工作原理及切换过程具体剖析

双机热备工作原理及切换过程具体剖析 双机热备容错基本原理是一个企业需要长期学习的技术,但是企业在组建的时候还是有很多不解的地方。下面我们就详细的了解下双机热备容错的相关知识。 一.双机工作原理 (1)心跳工作过程 通过IP做心跳检测时,主备机会通过此心跳路径,周期性的发出相互检测的测试包,如果此时主机出现故障,备机在连续丢失设定数目的检测包后,会认为主机出现故障,这时备机会自动检测设置中是否有第二种心跳,如果没有第二种心跳的话,备机则根据已设定的规则,启动备机的相关服务,完成双机热备容错的切换。 (2)IP工作过程 IP地址用虚拟IP地址的方法来实现,主要原理 主机正常的情况下虚拟IP地址指向主机的实IP地址,用户通过虚拟IP地址访问主机,这时,双机热备容错软件将虚拟IP地址解析到主机实IP地址。当主机做相关的切换时,虚拟IP地址通过双机热备容错软件自动将虚拟IP地址解析到备机的实IP地址上,这时,虚拟IP地址指向备机的实IP地址。但对用户来说,用户访问的仍然是虚拟IP地址。所以用户只会在切换的过程中发现有短暂的通信中断,经过一个短暂的时间,就可以恢复通信。 应用及网络故障切换过程 (i)可以检测到操作系统的故障并及时将服务切到备用服务器。 (ii)当操作系统正常的情况下,数据库系统出现意外故障,这时双机容错软件可以及时发现并将其切到备用服务器,使服务不致于停止。(如图2) (iii)当操作系统和数据库系统全都正常的情况下,服务器网络出现故障,这时双机热备容错软件,可以将系统切到正常的备用服务器上。 二.双机热备容错模式 双机热备有两种实现模式,一种是基于共享的存储设备的方式即双机热备容错方式,另一种是没有共享的存储设备的方式,一般称为镜像方式。 双机热备容错方式 对于这种方式,采用两台服务器,使用共享的存储设备(磁盘阵列柜或存储区域网SAN)。两台服务器可以采用互备、主从、并行等不同的方式。在工作过程中,两台服务器将以一个

IBM3650双机热备方案示例

IBM3650双机热备方案示例 IBM3650双机热备方案示例 IBM X3650服务器+DS3200 SAS 磁盘柜双机热备方案双机热备方案所需软硬件清单如下: 1、IBM X3650 服务器2台(具体配置根据需求选配) 2、IBM DS3200 磁盘柜一台(单控制器,单SAS 接口) 3、SAS HBA 卡2块(每台服务器各加一块) 4、双机模块(子卡)一块 5、SAS 连接线2条 6、双机热备软件(ROSE HA OR LIFEKEEPER )一套 DS3200/DS3400安装心得及技巧 这应该是网络上第一篇关于IBM System Storage DS3200和DS3400产品安装的非官方性文章,希望可以对大家的工作中带来帮助。 作为DS400产品的更新型号,DS3200和DS3400提供了更强的性能及灵活性,相信会成为今后一两年内的IBM低端存储产品的首选。 DS3200和DS3400均出自于LSI公司的Engenio系统(DS4000系列的大部分产品也是由Engenio为IBM协议设计及生产,去年Engenio被LSI收购)。所以设计思想和结构与DS400(Adapter 公司设计)会有较大的不同,管理方式也会与DS4000系列较为接近。

DS3000系列均需要在自身上安装不少于4个硬盘。建议先装上硬盘再上电开机。 DS3000系列提供与DS4000系列类似的带内和带外两种管理方法,带外管理的默认IP地址也与DS4000一样,控制器A为192.168.128.,控制器B为192.168.128.102。 本人比较喜欢采用带外管理,将本本网卡设至192.168.128网段后,可以ping通即可。 管理口长时间未起用时需要若干分钟的时候等待管理接口工作。 在本本上安装DS3000 Storage Manager(随机附带),注意该SM与DS4000上的Storage Manager为不同程序,不可替换使用。甚至不能在一台机器上共存。 打开Storage Manager后,首先需要发现设备,可以ping通控制器后,发现工作会非常容易。 双击发现的设备就可以进入该设备的管理界面,学名叫Subsystem Management。 Subsystem Management分为5个大项,Summary,Configure,Modify,Tools,Support。 常规的操作这里不再详述,如果你装过DS4000产品,应该对配置方法不会感到陌生。当然Storage Manager里只提供一些常规功能,在遇到问题的时候,比如需要重置手动清零时在该程序里无法完成的,所以与DS4000产品一样,提供了Script的方式,运行Script有两种方法。方法一:在DS3000 Storage

双机热备份软件介绍

双机热备份软件介绍 1、PrimeCluster(PCL)HA集群软件产品概述 PrimeCluster HA(PCL HA)是德国富士通-西门子计算机公司(Fujitsu-Siemens Computers)提供的业界领先的支持双机热备和多节点集群的高可用管理软件。 PCL HA是一种应用与系统高可用性(High Availability)管理器。它为关键业务应用及其相关资源提供了能够持续访问的平台。PCL HA可为任何类型的应用、服务或数据提供最通用的高可用性环境。最主要的优点在于自动识别系统故障及组件错误,并具有诸如透明本地恢复或应用故障转移(Failover)等合适的恢复措施。PCL HA拥有多方向故障转移功能——集群内任一节点均可接管其他节点的功能。若特定服务器出现故障,它所运行的应用会分配给余下正常运行的服务器,使管理员能灵活而有效地应用系统资源。由于应用可通过管理干预转移到其他服务器,这样就能在不中断操作的情况下对集群进行扩容。 PCL HA for Linux同目前市场上其他的基于开放源代码的HA软件不同,PCL是由FSC完全自行开发的Linux平台上的高可用软件,它在维护、故障排除、升级、售后服务方面都能够有充分的保障。同时根据PCL用户的反馈,对于开放源代码的HA类的系统关键软件,最终用户普遍对其版本更新能力、数据安全性和故障(特别是兼容性及底层故障)的排除能力普遍持怀疑态度。PCL for Linux在欧洲已经有相当的关键业务成功案例,在中国也有上百个成功安装使用的案例,因此,最终用户对PCL的接受度明显较高。 PCL HA做为一个高可靠的HA软件,以德国富士通-西门子公司的先进技术、严谨作风和可靠信誉为后盾,为用户提供系统高可用性方面的可靠保障,是关键应用下服务器集群的理想选择。 PCL HA高可用软件应用环境 PCL HA支持的操作系统有Linux和Solaris。 Intel-based的Linux发行版: ?RedHat Enterprise Linux ES/AS 3 (up to Update 5) ?RedHat Enterprise Linux ES/AS 4 (up to Update 2)以及64bit版本 ?SuSE Linux Enterprise Server 8 ( up to SP4) ?SuSE Linux Enterprise Server 9 ( up to SP2)以及64bit版本 ?以及各种兼容上述两种发行版的Linux,比如红旗、中标、CentOS等等 Sparc-based的Solaris ?Solaris 8 / 9 / 10 注:上述操作系统为PCLv4.2A00支持的操作系统,随着操作系统的升级,PCL也会做出相应的版本更新

如何实现的双机热备

如何实现的双机热备 2009-01-05 12:19:58 一.介绍 作为服务器,需要提供一定的24X7的安全保证,这样可以防止关键节点的宕机引起系统的全面崩溃。春笛公司在长期的邮件系统方案实施过程 中,利用OpenSource开源软件,结合金笛邮件系统,成功地为多家单位实施了大容量邮件系统的高可靠双机热备方案。 基于linux的 HA软件可靠稳定,比使用商业版本的HA软件降低成本约9成左右。 在这里我们用 lvs 和 DRBD 实现了一个真实环境下的双机热容错集群。 这里的关键技术是如何实现ip代换, mon/heartbeat检测, 文件同步。 同样这一方法稍加改动就可以实现oracle热备份、ldap热备份等。 二.方案描述 将真实服务地址绑定到一个虚拟网卡(eth0:1)上通过检测程序 (heartbeat)来将主机或是备份主机的虚拟网卡(eth0:1)激活。从而实现热备份。使用网络硬盘RAID来同步文件。检测程序通过内网进行监控。 金笛高可用邮件系统架构(双机系统) F 2 工作模式

a) 正常状态:

正常工作状态 b) 备份激活: node1失效,node2激活状态c) 主机就绪: node1故障排除,恢复状态

d) 切换回正常模式: 需要手动停止备份服务器的服务,系统会自动切换回正常模式 三.软硬件需求 两台双网卡主机完全安装 redhat6.2 主机IP 10.0.0.126 备份主机IP 10.0.0.250 实际服务即浮动IP 202.93.204.68 邮件系统: 金笛邮件系统Jindi-Mail2.0 (https://www.sodocs.net/doc/973906892.html,) HA软件: ftp://https://www.sodocs.net/doc/973906892.html,/pub/ha/piranha-docs-0.4.17-2.i386.rpm ftp://https://www.sodocs.net/doc/973906892.html,/pub/ha/piranha-gui-0.4.17-2.i386.rpm ftp://https://www.sodocs.net/doc/973906892.html,/pub/ha/piranha-0.4.17-2.i386.rpm ftp://https://www.sodocs.net/doc/973906892.html,/pub/ha/ipvsadm-1.11-4.i386.rpm https://www.sodocs.net/doc/973906892.html,plang.tuwien.ac.at/reisner/drbd/download/drbd-0.5 .8.1.tar.gz 安装软件: rpm –Uvh ipvsadm* piranha*两台主机都要装 金笛邮件系统安装 DRBD 安装 Tar zvxf tar -zvxf drbd-0.5.8.1.tar.gz cd drbd make make install 有如下相关文件 /usr/sbin/drbdsetup /lib/modules/2.2.18pre11-va2.1/block/drbd.o /etc/ha.d/resource.d /etc/rc.d/init.d/drbd /sbin/insmod drbd进行测试 应返回”Using /lib/modules/2.2.18pre11-va2.1/block/drbd.o” 四.设置 编辑/etc/lvs.cf文件 #Example of /etc/lvs.cf #还需要smtpd popd这两个启动脚本 service = fos # 采用fos模式 primary = 10.0.0.126 # 主ip地址(qmail) backup = 10.0.0.250 # 备份主机ip地址(Backup) backup_active = 1 # 激活备份 heartbeat = 1 # 激活Heartbeat heartbeat_port = 1050 # Heartbeat端口 keepalive = 2 # heartbeat间隔单位秒 deadtime = 10 # 判定死机间隔 rsh_command = ssh # 文件同步方案选ssh

双机热备简介

双机热备简介 一、双机热备 双机热备特指基于active/standby方式的服务器热备。服务器数据包括数据库数据同时往两台或多台服务器写,或者使用一个共享的存储设备。在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会通过软件诊测(一般是通过心跳诊断)将standby机器激活,保证应用在短时间内完全恢复正常使用。其实现过程如下图所示: 图(1) 为什么要做双机热备? 双机热备针对的是服务器的故障。 服务器的故障可能由各种原因引起,如设备故障、操作系统故障、软件系统故障等等。一般地讲,在技术人员在现场的情况下,恢复服务器正常可能需要10分钟、几小时甚至几天。双机高可用系统解决方案,为用户提供了具有单点故障容错能力的系统平台。它采用主服务发生故障时备服务器接管的机制,实现在线故障自动切换,实现系

统7×24小时不间断运行,避免停机造成的损失。 (一)纯软件双机热备 纯软件双机热备是在实时数据镜像基础上,实现了不需要共享存储的纯软高可用性系统,一般支持数据库和应用软件实现双机热备。 方案一:Windows(或者Linux)+ Rose Mirror HA+ORACLE(或者SQL Server)的双机热备 网络拓扑: 图(2) 投资采购软硬件设备: (1)数据库服务器:两台数据库服务器,每台服务器至少两个网络口; (2)操作系统:windows或者linux操作系统; (3)数据库软件:Oracle或者SQL Server企业版; (4)集群软件:Rose mirror HA(Rose公司); (5)交换机:核心交换机一台。

RoseMirrorHA镜像服务器双机热备解决方案及具体配置

RoseMirrorHA镜像服务器双机热备解决方

案及具体配置 . 一、双机热备拓扑图以及工作原理 专业资料Word .

双机热备工作示意图 二、双机热备方案介绍操作系统和应用程序是安装在两台服务器的本地系统盘在高可用性方案中,数据的集磁盘阵列集中管理和数据备份的。上的,而整个网络系统的数据是通过将所有站点的数据直接从中央存储设备来读取和中管理是通过双机热备份系统,用户的数极大地保护了数据的安全性和保密性。存储,并由专业人员进行管理,备机主动替代主机工在一台服务器出现故障时,据存放在外接共享磁盘阵列中,作,保证网络服务不间断。 心双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系”跳统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统双机软件无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(专业资料 Word .

RoseHA)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机备份方案中,根据两台服务器的工作方式可以有三种不同的工作模式,即双机热备模式、双机互备模式和双机双工模式。下面分别予以简单介绍: 双机热备模式即目前通常所说的active/standby 方式,active服务器?处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。这是目前最理想的一种模式。 双机互备模式,是两个相对独立的应用在两台机器同时运行,但彼此均?设为备机,当某一台服务器出现故障时,另一台服务器可以在短时间内将故障服务器的应用接管过来,从而保证了应用的持续性,但对服务器的性能要求比较高。服务器配置相对要好。 双机双工模式: 是目前Cluster(集群)的一种形式,两台服务器均为?活动状态,同时运行相同的应用,保证整体的性能,也实现了负载均衡和互为备份。WEB服务器或FTP服务器等用此种方式比较多。 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式,低成本模式。 基于存储共享的双机热备是双机热备的最标准方案。这种方式采用两台服务器,使用共享的存储设备(磁盘阵列柜或存储区域网SAN)。两台服务器可以采用热备(主从)、互备、双工(并行)等不同的方式。在工作过程中,两台服专业资料 Word .

windows双机热备文档

目录结构 目录结构 (1) 一、群集介绍 (2) 二、群集专业术语 (2) 三、环境介绍及要求 (3) 1、网络拓扑结构 (3) 2、软件配置说明 (3) 3、硬件配置要求 (4) 四、安装群集前的准备工作 (5) 1、创建共享磁盘 (5) 2、网络及系统配置 (9) 五、安装群集服务 (20) 1、在A 节点上新建一个群集 (20) 2、将B 节点加入现有群集 (26) 六、配置群集服务 (31) 1、群集网络配置 (31) 2、心跳适配器优先化 (33) 3、仲裁磁盘配置 (34) 4、测试群集安装 (34) 七、故障转移测试 (37) 1、初级测试 (37) 2、高级测试 (38)

一、群集介绍 服务器群集是一组协同工作并运行Microsoft 群集服务(Microsoft Cluster Service,MSCS)的独立服务器。它为资源和应用程序提供高可用性、故障恢复、可伸缩性和可管理性。它允许客户端在出现故障和计划中的暂停时,依然能够访问应用程序和资源。如果群集中的某一台服务器由于故障或维护需要而无法使用,资源和应用程序将转移到可用的群集节点上。(说明:本文档编写的目的是为了帮助大家实现所关心的如何在VMWare Workstation 中完成,典型群集的配置步骤,不会具体的涉及到如何安装群集应用程序) 二、群集专业术语 节点: 构建群集的物理计算机 群集服务: 运行群集管理器或运行群集必须启动的服务 资源: IP 地址、磁盘、服务器应用程序等都可以叫做资源 共享磁盘: 群集节点之间通过光纤SCSI 电缆等共同连接的磁盘柜或存储 仲裁资源: 构建群集时,有一块磁盘会用来仲裁信息,其中包括当前的服务状态各个节点的状态以及群集转移时的一些日志 资源状态: 主要指资源目前是处于联机状态还是脱机状态 资源依赖: 资源之间的依存关系 组: 故障转移的最小单位 虚拟服务器: 提供一组服务--如数据库文件和打印共享等 故障转移: 应用从宕机的节点切换到正常联机的节点 故障回复: 某节点从宕机状态转为联机状态后,仍然继续宕机前的工作,为其他节点分流

高可用多机集群数据备份双机热备方案

PLUSWELL多机集群、数据备份解决方案 北京蓝科泰达科技有限公司 2008年7月

一:概述 企业和事业单位的运转越来越依赖于计算机系统,如果一旦这个数据处理中心无法正常运转,就会造成业务停顿,导致不可挽回的损失。 而现有的双机热备份设备存在价格高昂,成本较高的情况,往往使用户望而却步。而用户寻求底成本的纯软件方案又往往因产品不容易维护,纯软件双机方案不稳定等因素,往往给用户造成不必要的使用麻烦。有时因护理不当造成数据损坏,发生更大的事故。 蓝科泰达凭借其丰富的研发经验,为您提供高可用性系列产品和优质的服务,推出了蓝科泰达双机容错打包解决方案,目的在于保证数据永不丢失和系统永不停顿,同时为用户节省大量的开支。蓝科泰达容错系统结合了蓝科泰达磁盘阵列产品的安全可靠性与双机容错技术高可用性的优点,相互配合二者的优势。蓝科泰达磁盘阵列针对双机容错技术做了许多优化和改进,满足了双机硬件的连接要求,根据应用环境的实际情况,适用于Windows2000平台以上,开放源代码Linux 平台,SCO UNIX平台上的多种双机热备软件。 二、需求分析 企业关键业务一旦中断,企业的日常运作将受到致命的影响,那么就要求我们的系统在最短的时间内将系统恢复到正常状态。 所以我们要求双机软件能够实现以下几点: 1、异常终端检测 2、网络故障,系统故障,应用程序故障等全系统检测 3、当高可用系统中的某个节点故障,无须人工干预自动切换,保障系统运行 4、速度快(快速恢复) 贵单位业务平台,是以Windwos 2003 Server系统平台为基础,以SQL Server核心的数据 库应用系统,该系统对稳定性要求很高、系统实时性和可用性提出要有连续运行的能力,系统一旦出现故障,其损失是惨重的。 因此,建议用户采用高可用技术,高可用系统在各个节点间保持的间歇的通讯,使系统中的独立节点组合成整体的一套系统,并使用PlusWell 软件可以保障该系统中的某一节点故障都可 被PlusWell 软件所监控,如主服务器应用程序、网卡、操作系统,均纳入公共的安全体系,确 保7*24的不停机。 比较典型的危及系统安全应用和系统错误主要有: (1)进程错误,比如用户应用与文件数据库的连接异常中断或用户进程发生错误。 (2)文件系统故障,由于异常操作或其它原因造成文件系统内部部分信息丢失或不一致。 (3)操作系统故障,操作系统本身的系统调用问题及底层的应用驱动在安装或更新出现冲突; (4)网络线缆故障。 (5)介质问题,网络连接或物理硬盘也可能会出现问题。 方案拓扑:

双机热备实施方案

双机热备安装步骤 ●安装WINNT4 ●安装IE4.01SP1 ●安装Microsoft cluster server ●安装WINNT4 Option Pack ●安装WINNT4SP4 ●安装Microsoft SQL Standard Server7 一、WINNT4.0安装步骤 此安装过程涉及SCSI本地硬盘、磁盘阵列、网卡、RAID管理软件的安装。 1、插入WINNT光盘; 2、按F6(为了从软盘安装SCSI本地硬盘驱动程序); 3、安装SCSI本地硬盘驱动; 4、per server for: 40 5、选择server type(注:做两机热备时,分别设置为一个“主域”,另一个“备用域”。另外,设置“备份域”时,“主域”必须打开); 6、安装网卡驱动(a:\nicdrv); 7、不选择DHCP; 8、安装WINNT的SP3(在第一张光盘); 9、安装磁盘阵列驱动(控制面板里“SCSI Adapters”,进入安装界面里选“a:\netraid”); 10、用“disk amanagement”为两机重新设置盘符(现将“磁盘阵列”设置为统一的“D:”); 11、在WINDOWS界面安装RAID管理软件(e:\cluster\netraid\nt40_cl\utility\disk1\setup)。

二、WINNT4 IE4.01SP1安装 三、Microsoft cluster server安装 其他信息:安装microsoft cluster server软件时,应先在运行“nhloader.exe”命令,打开cluster软件安装平台。(具体详见:“setting up an MSCS cluster P63~P65“) 四、WINNT4 Option Pack安装 五、WINNT4 SP4安装 六、Microsoft SQL Server7安装 七、Appendix

冷备份与热备份、双机热备与容错

冷备份与热备份、双机热备与容错 冷备份与热备份、双机热备与容错 冷备份与热备份 一、冷备份 冷备份发生在数据库已经正常关闭的情况下,当正常关闭时会提供给我们一个完整的数据库。冷备份时将关键性文件拷贝到另外的位置的一种说法。对于备份Oracle信息而言,冷备份时最快和最安全的方法。冷备份的优点是:1、是非常快速的备份方法(只需拷文件) 2、容易归档(简单拷贝即可) 3、容易恢复到某个时间点上(只需将文件再拷贝回去) 4、能与归档方法相结合,做数据库“最佳状态”的恢复。 5、低度维护,高度安全。 但冷备份也有如下不足: 1、单独使用时,只能提供到“某一时间点上”的恢复。 2、再实施备份的全过程中,数据库必须要作备份而不能作其他工作。也就是说,在冷备份过程中,数据库必须是关闭状态。 3、若磁盘空间有限,只能拷贝到磁带等其他外部存储设备上,速度会很慢。 4、不能按表或按用户恢复。 如果可能的话(主要看效率),应将信息备份到磁盘上,然后启动数据库(使用户可以工作)并将备份的信息拷贝到磁带上(拷贝的同时,数据库也可以工作)。

冷备份中必须拷贝的文件包括: 1、所有数据文件 2、所有控制文件 3、所有联机REDO LOG文件 4、Init.ora文件(可选) 值得注意的使冷备份必须在数据库关闭的情况下进行,当数据库处于打开状态时,执行数据库文件系统备份是无效的。 下面是作冷备份的完整例子。 (1)关闭数据库 sqlplus /nolog sql>connect /as sysdba sql>shutdown normal; (2)用拷贝命令备份全部的时间文件、重做日志文件、控制文件、初始化参数文件 sql>cp (3)重启Oracle数据库 sql>startup 二、热备份 热备份是在数据库运行的情况下,采用archivelog mode方式备份数据库的方法。所以,如果你有昨天夜里的一个冷备份而且又有今天的热备份文件,在发生问题时,就可以利用这些资料恢复更多的信息。热备份要求数据库在Archivelog方式下操作,并需要大量的档案空间。一旦数据库运行在archivelog

服务器双机热备概念

1,双机热备特指基于高可用系统中的两台服务器的热备(或高可用),因两机高可用在国内使用较多,故得名双机热备。 2,以一般常用的SQL服务的双机热备为例:先在两台服务器上安装服务器系统。 3,然后建立一个或多个磁盘阵列,将两台服务器上的SQL数据保存在磁盘阵列上。 4,然后安装一款集群软件,如:微软MSCS,Symantec VCS,ATANG Cluster 等。 5,然后在软件上分别设置主和副服务器。以MSCS为例,先在服务器上安装Advanced Server或DataCenter Server。然后在两台服务器添加相同的管理员帐号和密码。即帐号在每个节点上,都必须具有管理员权限。所有节点都必须是成员服务器,或者所有的节点是同一个域里的域控制器。在群集中,不允许一部分是域成员,一部分是域控制器。

6,然后安装集群管理软件,开启磁盘阵列,在两台电脑上设置共享磁盘,并验证共享磁盘国。 7,然后关闭第一个服务器,配置第二个节点,配置完成后,关闭第二个服务器,打开第一个服务器,配置第一个节点。 8,最后,开启两个服务器和磁盘阵列。

组成双机热备的方案主要的三种方式分别为:基于共享存储(磁盘阵列)的方式,全冗余方式和复制方式。 基于共享存储(磁盘阵列)的方式 共享存储方式主要通过磁盘阵列提供切换后,对数据完整性和连续性的保障。用户数据一般会放在磁盘阵列上,当主机宕机后,备机继续从磁盘阵列上取得原有数据。如下图所示 传统的单存储方式 这种方式因为使用一台存储设备,往往被业内人士称为磁盘单点故障。但一般来讲存储的安全性较高。所以如果忽略存储设备故障的情况下,这种方式也是业内采用最多的热备方式了。 全冗余方式 全冗余方式就是双机双存储,基于单台存储的传统双机热备方式,确实存在存储单点故障的情况,为实现存储冗余,存储高可用也已经越来越多的被用户接受。我们从理解上可以看出,双机热备最早是为解决服务器的计划性停机与非计划性宕机的解决方案,但是我们无法实现存储的计划性停机与非计划性宕机带来的服务器停机,而存储作为双机热备中唯一存储数据的设备,它一旦发生故障往往会造成双机热备系统全面崩溃。 存储热备方式 随着科技的进步,云存储,云计算发展,对于存储热备已经进入了成熟及快速发展阶段,双机热备也随着技术的进步,进入到了没有单点故障的全冗余双机热备方式。如图:这种方式的特点在于: 1、存储之间的数据复制不经过网络,而是由存储之间进行复制。 2、两个存储之间的复制是完全实时的,不存在任何时间延时。 3、主备存储之间的切换时间小于500ms,以确保系统存储时不产生延时。 4、硬盘盘符及分区不因为主备存储之间的切换而改变。 5、服务器的切换,不影响存储之间的初始化,增量同步及数据复制。 6、某一存储设备的计划性停机,不影响整个服务器双机热备系统的工作。

服务器双机热备方案

双机热备方案 双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 1.集群技术 在了解双机热备之前,我们先了解什么是集群技术。 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。 其中,只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。可见,双机热备是集群技术中最简单的一种。 2. 双机热备适用对象 一般邮件服务器是要长年累月工作的,且为了工作上需要,其邮件备份工作就绝对少不了。有些企业为了避免服务器故障产生数据丢失等现象,都会采用RAID 技术和数据备份技术。但是数据备份只能解决系统出现问题后的恢复;而RAID

技术,又只能解决硬盘的问题。我们知道,无论是硬件还是软件问题,都会造成邮件服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。 要恢复服务器,再轻微的问题或者强悍的技术支持,服务器都要中断一段时间,对于一些需要随时实时在线的用户而言,丢失邮件就等于丢失金钱,损失可大可小,这类用户是很难忍受服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 3. 实现方案 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。 1)基于共享的存储设备的方式 基于存储共享的双机热备是双机热备的最标准方案。对于这种方式,采用两台服务器(邮件系统同时运行在两台服务器上),使用共享的存储设备磁盘阵列(邮件系统的数据都存放在该磁盘阵列中)。两台服务器可以采用互备、主从、并行等不同的方式。在工作过程中,两台服务器将以一个虚拟的IP地址对外提供服务,依工作方式的不同,将服务请求发送给其中一台服务器承担。同时,服务器

相关主题