搜档网
当前位置:搜档网 › H3C统一架构数据中心解决方案

H3C统一架构数据中心解决方案

H3C统一架构数据中心解决方案
H3C统一架构数据中心解决方案

H3C统一架构数据中心解决方案

在虚拟化、自动化、高性能计算等新的技术趋势下,在用户日益增长的新业务与应用需求中,传统的数据中心正在经历一场前所未有的大变革,数据中心内部基础设施的深刻变化在所难免。

与此同时,在CEE(融合增强型以太网)、FCoE(光纤通道以太网)等技术的推动下,网络厂商开始担当起变革数据中心的角色,以网络为核心(而不是传统的以计算为核心)对数据中心进行整合,成为时下流行的数据中心发展趋势。包括博科、思科、Force10、H3C、Juniper 和ProCurve等众多网络厂商在近期集中发布了一批数据中心网络整合与协同工作的解决方案,本文着重分析H3C最新发布的基于统一交换架构的新一代数据中心解决方案。

统一数据中心融合新篇章

数据中心是企业信息化的重镇,也是高端网络交换技术的主战场,在这一领域,虽然参战的网络厂商并不多,但竞争激烈程度却丝毫不弱于其它领域。尤其在数据中心网络整合解决方案中,以思科和H3C最具代表性。而不约而同地,思科和H3C都将自己的新一代数据中心解决方案命名为“统一”,意为将网络、存储、安全等设备整合在单一的平台之上。先来看思科的统一计算系统(UCS),这是一个融合了计算、网络、存储、虚拟化和统一管理的全新体系架构,通过集成管理,实现了“一次性布线”、统一交换与行业标准计算平台的结合,整合了局域网、存储局域网(SAN)和高性能计算三个独立的网络。

H3C推出的基于统一交换架构的新一代数据中心解决方案是通过几个“三”来实现着“统一”,即针对新一代数据中心一体化、虚拟化和自动化的三个发展趋势,瞄准互联网、大型企业和高性能计算单位三个领域的用户,通过CEE将网络、安全和存储三大类产品线整合起来,实现了在以太网和IP技术的基础上,基于网络、计算和存储三网融合的IT基础网络架构的统一。

如果对这两个解决方案的区别仍有疑问,可以试着从各自的主打产品上寻找答案:UCS 主打的是“加利福尼亚”刀片服务器,表明了思科将服务器、交换和管理等所有组件紧密整合的长期战略;而H3C则主打基于100G平台的核心交换机S12500,着眼于通过高性能交换平台消除数据中心异构网络带来的性能瓶颈问题。

虽然不同厂商的理解有所不同,但“统一”解决方案都是指向新一代数据中心这个标靶,致力于改变从前复杂的基础设施架构,进入到一个简单、便捷、灵活、绿色的数据中心管理时代。从这个层面上讲,思科与H3C的解决方案可谓不分伯仲。“新一代数据中心革新的时代已经来临,而这种变化并不是厂商主导的,也并不是一种技术论,而是由用户的实实在在需求和数据中心应用的演变所决定的。”H3C副总裁兼首席技术官曹向英表示。

对此,H3C网络产品线副总裁孙德和给予了更进一步的阐述:“数据中心市场是H3C 一直关注和长期耕耘的领域,传统数据中心面临着异构网络、静态资源、复杂管理、高能耗等方面的挑战。针对这些问题,一体化、虚拟化、自动化、绿色成为新一代数据中心发展的必然趋势。为适应这种趋势,数据中心在整体构建思路上,会趋向于通过整合数据、计算、存储三张异构网络,实现数据中心网络一体化;通过计算、存储和网络的虚拟化,实现数据中心虚拟化;通过动态调配网络资源和流程化的管理,实现管理的自动化。我们希望借助统一交换架构能够为用户提供一个简洁、绿色的新一代数据中心。”

事实上,数据中心作为业界普遍看好的方向,不同领域的厂商都在推出数据中心解决方案。对于用户来说,更应该以哪一类产品为着眼点来规划自己的数据中心呢?“从我们公司的角度来看,我认为比较合理的方式还是以网络为着眼点。”曹向英表示,“现在是向统一架构的数据中心演变的过程。如果从网络角度着眼规划数据中心,那么未来升

级的基础就比较好。因为从网络角度可以具有超前的规划性,现在即使在数据上没有实现云计算,也没有做到终端和传统设备的整合,但统一交换架构仍然给未来的整合提供了可能。”

创新产品细节体现硬实力

考虑到新一代数据中心在设备和应用上的复杂程度,要实现整合的解决方案自然离不开新技术的研发与创新。相对于思科在产品线上的创新——通过发布加利福尼亚进军服务器领域,H3C统一交换架构的创新更多体现在产品细节上。比如H3C研发的第二代智能弹性架构技术IRF2就跨越了地域、接口能力和设备的鸿沟,进一步简化了传统数据中心基础架构,初步实现网络资源的虚拟化。

创新技术还体现在向40Gbps或100Gbps平滑升级过渡方面。最具代表性的当属统一交换架构的核心支撑——基于100Gbps平台的S12500系列高性能核心路由交换机。“S12500的价值不仅是体现在整机最大提供512个万兆端口的高性能上,更加体现在体系架构的突破与创新方面。依托创新的交换矩阵与路由引擎相分离的多级交换架构,使得S12500交换容量可达5.76Tbps,未来还可扩展三倍。而支持分布式大容量缓存、一次性精确调度和精细化QoS机制,更解决了新一代数据中心大流量冲击问题。”曹向英对S12500寄予了厚望。

高速背板设计也是这次在技术上的一个重大突破,创新的单根导线6.25Gbps以上的传输能力,远远超过当前绝大部分交换机所停留的3.125Gbps或者3.7Gbps水平。而针对数据中心管理最令人头疼的能耗问题,此次发布的产品大量采用了65纳米芯片技术,在性能提升两倍的同时能耗只增加了50%。

H3C同期发布的S58系列数据中心级万兆交换机(具备纳秒级转发能力)、高性能防火墙SecPath F5000-A5、数据中心应用加速设备SecPath ASE5000、集成在高端交换机的SecBlade 防火墙/IPS/负载均衡等安全业务板卡,以及融入高性能SSD固态硬盘、万兆传输、SAS、多核处理器等先进技术的新一代万兆存储IX3620,都通过创新的产品和技术理念为统一交换架构提供全面支撑,体现出H3C“创新·为你”的发展理念和实力。

不夸张地说,以S12500高性能核心路由交换机为代表的H3C统一交换架构,再次巩固了其一直以来的优势,高端交换机市场的两强格局分外引人关注。

NIKE 项目数据中心网络架构方案

NIKE 项目数据中心网络架构方案 1.概述 (2) 2.系统需求分析 (2) 3.企业网络信息系统设计思路 (2) 4.企业网络信息系统建设原则 (2) 5.系统技术实现细节 (3) 5.1 网络拓扑图 (3) 5.2 Nike项目服务器技术实现细节 (4) 5.2.1双机备份方案 (4) 5.2.1.1.双机备份方案描述 (4) 5.2.1.2.双机备份方案的原理 (4) 5.2.1.3.双机备份方案的适用范围 (4) 5.2.1.4.双机备份的方式及优缺点 (4) 5.2.1.5双机方案建议 (4) 5.2.1.6磁盘阵列备份模式示意图 (5)

5.2.1.7双机方案网络拓扑图 (5) 5.2.1.8双机热备工作原理 (6) 6.备份 (6) 7.建议配置方案及设备清单..................................................7-8 1.概述 21世纪世界竞争的焦点将是信息的竞争,社会和经济的发展对信息资源、信息技术和信息产业的依赖程度越来越大,信息技术的发展对政治、经济、科技、教育、军事等诸多方面的发展产生了重大的影响,信息化是世界各国发展经济的共同选择,信息化程度已成为衡量一个国家,一个行业现代化的重要标志。 2.系统需求分析 由于此方案是专为NIKE项目数据中心设计,此数据中心是为数据信息提供传递、处理、存储服务的,为了满足企业高效运作对于正常运行时间的要求,因此,此数据中心在通信、电源、冷却、线缆与安全方面都必须要做到非常可靠和安全,并可适应不断的增长与变化的要求。 3.系统设计思路 企业网络信息系统的建设是为企业业务的发展服务,综合考虑公司信息系统当前背景和状况,其建设设计主要应达到如下目标: 1) 系统的设计应能满足公司对公用信息资源的共享需求,满足3PL及客户查询数据的共享需求,并为实现公用信息资源共享提供良好的网络环境,概括而言之就是能让相关人员顺利流畅的访问数据中心的Nike XpDX Server及我司的TMS等相关系统。与此同时,系统的建设还需要考虑到投入和产出两者间的关系,注意强调成本节约,提高效费比的问题。 2) 系统的设计必须充分考虑到建成后系统的管理维护问题。为此设计应强调系统的统一集中管理,尽量减少资源的分散管理,注重提高信息系统平台运营维护的工作效率。 3) 系统的设计还需要考虑建成后资源的合理利用问题,必须保证建成系统资源主要服务于设定需求,保证设计数据流量在网络中流畅通行。因此,必须保证只有设计的数据流量才能优先在网络中传递,对于设计外数据流量(例如互联网网页访问、网络下载、网络视频、网络音频、P2P、IM聊天)应通过技术

数据中心网络系统设计方案范本

数据中心网络系统 设计方案

数据中心高可用网络系统设计 数据中心作为承载企业业务的重要IT基础设施,承担着稳定运行和业务创新的重任。伴随着数据的集中,企业数据中心的建设及运维给信息部门带来了巨大的压力,“数据集中就意味着风险集中、响应集中、复杂度集中……”,数据中心出现故障的情况几乎不可避免。因此,数据中心解决方案需要着重关注如何尽量减小数据中心出现故障后对企业关键业务造成的影响。为了实现这一目标,首先应该要了解企业数据中心出现故障的类型以及该类型故障产生的影响。影响数据中心的故障主要分为如下几类: 硬件故障 软件故障 链路故障 电源/环境故障 资源利用问题 网络设计问题 本文针对网络的高可用设计做详细的阐述。 高可用数据中心网络设计思路

数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,能够经过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 可是,一味的增加冗余设计是否就能够达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: 网络复杂度增加 网络支撑负担加重 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。

数据中心建设架构设计

数据中心架构建设计方案建议书 1、数据中心网络功能区分区说明 功能区说明 图1:数据中心网络拓扑图 数据中心网络通过防火墙和交换机等网络安全设备分隔为个功能区:互联网区、应用服务器区、核心数据区、存储数据区、管理区和测试区。可通过在防火墙上设置策略来灵活控制各功能区之间的访问。各功能区拓扑结构应保持基本一致,并可根据需要新增功能区。 在安全级别的设定上,互联网区最低,应用区次之,测试区等,核心数据区和存储数据区最高。 数据中心网络采用冗余设计,实现网络设备、线路的冗余备份以保证较高的可靠性。 互联网区网络 外联区位于第一道防火墙之外,是数据中心网络的Internet接口,提供与Internet高速、可靠的连接,保证客户通过Internet访问支付中心。 根据中国南电信、北联通的网络分割现状,数据中心同时申请中国电信、中国联通各1条Internet线路。实现自动为来访用户选择最优的网络线路,保证优质的网络访问服务。当1条线路出现故障时,所有访问自动切换到另1条线路,即实现线路的冗余备份。

但随着移动互联网的迅猛发展,将来一定会有中国移动接入的需求,互联区网络为未来增加中国移动(铁通)链路接入提供了硬件准备,无需增加硬件便可以接入更多互联网接入链路。 外联区网络设备主要有:2台高性能链路负载均衡设备F5 LC1600,此交换机不断能够支持链路负载,通过DNS智能选择最佳线路给接入用户,同时确保其中一条链路发生故障后,另外一条链路能够迅速接管。互联网区使用交换机可以利用现有二层交换机,也可以通过VLAN方式从核心交换机上借用端口。 交换机具有端口镜像功能,并且每台交换机至少保留4个未使用端口,以便未来网络入侵检测器、网络流量分析仪等设备等接入。 建议未来在此处部署应用防火墙产品,以防止黑客在应用层上对应用系统的攻击。 应用服务器区网络 应用服务器区位于防火墙内,主要用于放置WEB服务器、应用服务器等。所有应用服务器和web服务器可以通过F5 BigIP1600实现服务器负载均衡。 外网防火墙均应采用千兆高性能防火墙。防火墙采用模块式设计,具有端口扩展能力,以满足未来扩展功能区的需要。 在此区部署服务器负载均衡交换机,实现服务器的负载均衡。也可以采用F5虚拟化版本,即无需硬件,只需要使用软件就可以象一台虚拟服务器一样,运行在vmware ESXi上。 数据库区

数据中心网络架构

数据中心网络架构 7.6.2.3.1、网络核心 网络核心由2台双引擎万兆交换机构成,通过千兆实现各个功能分区的接入,同时交换机之间采用双千兆捆绑的方式实现高速互联。 为了保证各个功能分区的高可靠性,与各个功能分区的汇聚交换机或接入交换机采用双链路冗余连接。 网络为二层架构,要采用千兆接入层交换通过千兆线路上行到两台核心交换层交换机。服务器接入采用双网卡千兆上行,接入交换机采用万兆上行到核心交换机。 应急信息系统对网络安全、信息安全有着很高的要求,因此通过合理的防火墙、IPS和ASE部署,可以使网络对非法请求、异常攻击和病毒具有非常好的防御,同时可以对各种敏感和非法信息、网址和电子邮件进行有效的过滤。 7.6.2.3.2、全交换网络 建议采用全交换网络来保证网络的高性能。应急指挥中心服务器群规模不大,网络结构采用两层交换机即可。 在核心汇聚层采用高性能核心交换机,未采用路由器,主要的考虑基于以下两点: (1)交换机性能高,接口密度高,适合在数据中心的核心位置部署;相比而言路由器的性能和接口密度则远低于交换机; (2)交换机设备工作在二层,业务扩展灵活方便;

7.6.2.3.3、服务器接入的二层模式 在工作模式上,核心汇聚交换机工作在路由模式(三层),服务器接入层交换机工作在交换(二层)模式。 三层接入的好处在于配置管理相对简单,上行汇聚设备的报文比较“纯净”,都是单播报文。而三层接入的问题主要在服务器扩展性、灵活性以及L4/L7设备的部署上。 对于应急系统来说,服务器的扩展能力是一个非常重要的问题,在实际的部署中,经常会要求服务器之间做二层邻接,如果采用二层接入,可以很方便的实现VLAN的部署。 三层接入带来的另一个问题是L4/L7设备(如服务器Load-Balacne)的部署。Load-Balance通常部署在汇聚层,可以实现对服务器访问流量的分担,以及服务器健康状态的检查,对于某些负载均衡算法或服务器健康检查算法来说,必须要求服务器和Load-balance设备二层邻接,因此数据中心不建议采用三层接入。 对于二层接入方式,可以通过MSTP或SmartLink技术解决链路冗余问题。在MSTP中,端口的阻塞是逻辑上的,只对某些STP实例进行阻塞,一个端口可能对一个STP实例阻塞,但对另一个STP实例是可以转发的。合理的使用MSTP,可以做到链路的负载分担。而且,因为映射到一个MSTP实例的VLAN 可以灵活控制,并且引入了域的概念,使得MSTP在部署时有很好的扩展性。SmartLink提供了一种二层链路冗余技术,可以部分替代STP的功能,并且保证200毫秒的链路切换时间,可应用在HA要求较高的环境。 因此建议在数据中心的服务器区采用二层接入方式。 根据应急指挥应急指挥系统的需求,数据中心由以下几个功能区组成: (1)核心网络区: 由高速网络交换机组成,提供核心交换能力,同时部署安全和应用优化设备,保证数据安全和系统性能。 (2)核心数据库区: 由运行HA 系统的高效UNIX 主机组成,提供数据高速访问能力(3)应用区:

数据中心网络系统设计方案及对策

数据中心高可用网络系统设计 数据中心作为承载企业业务的重要IT基础设施,承担着稳定运行和业务创新的重任。伴随着数据的集中,企业数据中心的建设及运维给信息部门带来了巨大的压力,“数据集中就意味着风险集中、响应集中、复杂度集中……”,数据中心出现故障的情况几乎不可避免。因此,数据中心解决方案需要着重关注如何尽量减小数据中心出现故障后对企业关键业务造成的影响。为了实现这一目标,首先应该要了解企业数据中心出现故障的类型以及该类型故障产生的影响。影响数据中心的故障主要分为如下几类: 硬件故障 软件故障 链路故障 电源/环境故障 资源利用问题 网络设计问题 本文针对网络的高可用设计做详细的阐述。 高可用数据中心网络设计思路 数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,可以通过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 但是,一味的增加冗余设计是否就可以达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: 网络复杂度增加 网络支撑负担加重 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真

正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。 图1 数据中心高可用系统设计层次模型 数据中心网络架构高可用设计 企业在进行数据中心架构规划设计时,一般需要按照模块化、层次化原则进行,避免在后续规模越来越大的情况再进行大规模的整改,造成时间与投资浪费。 模块化设计 模块化设计是指在对一定范围内的不同功能或相同功能不同性能、不同规格的应用进行功能分析的基础上,划分并设计出一系列功能模块,模块之间松耦合,力求在满足业务应用要求的基础上使网络稳定可靠、易于扩展、结构简单、易于维护。 不同企业的应用系统可能有一定的差异。在网络层面,根据应用系统的重要性、流量特征和用户特征的不同,可大致分为以下几个区域,如图2所示。

云计算数据中心

云时代需要怎样的数据中心架构? 云计算要求基础设施具有良好的弹性、扩展性、自动化、数据移动、多租户、空间效率和对虚拟化的支持。那么,云计算环境下的数据中心基础设施各部分的架构应该是什么样的呢? 1、云计算数据中心总体架构 云计算架构分为服务和管理两大部分。在服务方面,主要以提供用户基于云的各种服务为主,共包含3个层次:基础设施即服务IaaS、平台即服务PaaS、软件即服务SaaS.在管理方面,主要以云的管理层为主,它的功能是确保整个云计算中心能够安全、稳定地运行,并且能够被有效管理。 2、云计算机房架构 根据长城电子公司多年的经验,为满足云计算服务弹性的需要,云计算机房采用标准化、模块化的机房设计架构。模块化机房包括集装箱模块化机房和楼宇模块化机房。 集装箱模块化机房在室外无机房场景下应用,减轻了建设方在机房选址方面的压力,帮助建设方将原来半年的建设周期缩短到两个月,而能耗仅为传统机房的50%,可适应沙漠炎热干旱地区和极地严寒地区的极端恶劣环境。楼宇模块化机房采用冷热风道隔离、精确送风、室外冷源等领先制冷技术,可适用于大中型数据中心的积木化建设和扩展。 3、云计算网络系统架构 网络系统总体结构规划应坚持区域化、层次化、模块化的设计理念,使网络层次更加清楚、功能更加明确。数据中心网络根据业务性质或网络设备的作用进行区域划分,可从以下几方面的内容进行规划。 1)按照传送数据业务性质和面向用户的不同,网络系统可以划分为内部核心网、远程业务专网、公众服务网等区域。 2)按照网络结构中设备作用的不同,网络系统可以划分为核心层、汇聚层、接入层。 3)从网络服务的数据应用业务的独立性、各业务的互访关系及业务的安全隔离需求综合考虑,网络系统在逻辑上可以划分为存储区、应用业务区、前置区、系统管理区、服务器托管、外联网络接入区、内部网络接入区等。

数据中心网络架构三层分析

传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。不同区域之间通过网关和安全设备互访,保证不同区域的可靠性、安全性。同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络。 传统的数据中心网络技术,STP是二层网络中非常重要的一种协议。用户构建网络时,为了保证可靠性,通常会采用冗余设备和冗余链路,这样就不可避免的形成环路。而二层网络处于同一个广播域下,广播报文在环路中会反复持续传送,形成广播风暴,瞬间即可导致端口阻塞和设备瘫痪。因此,为了防止广播风暴,就必须防止形成环路。这样,既要防止形成环路,又要保证可靠性,就只能将冗余设备和冗余链路变成备份设备和备份链路。即冗余的设备端口和链路在正常情况下被阻塞掉,不参与数据报文的转发。只有当前转发的设备、端口、链路出现故障,导致网络不通的时候,冗余的设备端口和链路才会被打开,使得网络能够恢复正常。实现这些自动控制功能的就是STP(Spanning Tree Protocol,生成树协议)。 由于STP的收敛性能等原因,一般情况下STP的网络规模不会超过100台交换机。同时由于STP需要阻塞掉冗余设备和链路,也降低了网络资源的带宽利用率。因此在实际网络规划时,从转发性能、利用率、可靠性等方面考虑,会尽可能控制STP网络范围。 大二层也是为了流通的要求 随着数据大集中的发展和虚拟化技术的应用,数据中心的规模与日俱增,不仅对二层网络的区域范围要求也越来越大,在需求和管理水平上也提出了新的挑战。 数据中心区域规模和业务处理需求的增加,对于集群处理的应用越来越多,集群内的服务器需要在一个二层VLAN下。同时,虚拟化技术的应用,在带来业务部署的便利性和灵活性基础上,虚拟机的迁移问题也成为必须要考虑的问题。为了保证虚拟机承载业务的连续性,虚拟机迁移前后的IP地址不变,因此虚拟机的迁移范围需要在同一个二层VLAN下。反过来即,二层网络规模有多大,虚拟机才能迁移有多远。 传统的基于STP备份设备和链路方案已经不能满足数据中心规模、带宽的需求,并且STP协议几秒至几分钟的故障收敛时间,也不能满足数据中心的可靠性要求。因此,需要能够有新的技术,在满足二层网络规模的同时,也能够充分利用冗余设备和链路,提升链路利用率,而且数据中心的故障收敛时间能够降低到亚秒甚至毫秒级。 大二层需要有多大 既然二层网络规模需要扩大,那么大到什么程度合适?这取决于应用场景和技术选择。 1. 数据中心内 大二层首先需要解决的是数据中心内部的网络扩展问题,通过大规模二层网络和VLAN 延伸,实现虚拟机在数据中心内部的大范围迁移。由于数据中心内的大二层网络都要覆盖多个接入交换机和核心交换机,主要有以下两类技术。 虚拟交换机技术

数据中心网络设计

欢迎阅读数据中心高可用网络系统设计方案 数据中心作为承载企业业务的重要IT基础设施,承担着稳定运行和业务创新的重任。伴随着数据的集中,企业数据中心的建设及运维给信息部门带来了巨大的压力,“数据集中就意味着风险集中、响应集中、复杂度集中……”,数据中心出现故障的情况几乎不可避免。因此,数据中心解决方案需要着重关注如何尽量减小数据中心出现故障后对企业关键业务造成的影响。为了实现这一目标,首先应该要了解企业数据中心出现故障的类型以及该类型故障产生的影响。影响数据中心的故障主要分为如下几类: 电源 server 网络支撑负担加重 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而实现真正的高可用。设计一个高可用的数据中心网络,可参考类似OSI七层模型,在各个层面保证高可用,最终实现数据中心基础网络系统的高可用,如图1所示。 图1 数据中心高可用系统设计层次模型

数据中心网络架构高可用设计 企业在进行数据中心架构规划设计时,一般需要按照模块化、层次化原则进行,避免在后续规模越来越大的情况再进行大规模的整改,造成时间与投资浪费。 模块化设计 模块化设计是指在对一定范围内的不同功能或相同功能不同性能、不同规格的应用进行功能分析的基础上,划分并设计出一系列功能模块,模块之间松耦合,力求在满足业务应用要求的基础上使网络稳定可靠、易于扩展、结构简单、易于维护。 1) 2) 3) “财务应用区”几类,子分区可以是物理的,也可以是逻辑的。如果是逻辑的,可为每个子分区分配一个虚拟防火墙来部署安全策略。在业务系统复杂,服务器数据较多的情况下(>=200台),建议采用物理子分区,每个子分区采用独立的汇聚交换机和安全设备。 层次化设计 数据中心层次化设计包括网络架构分层和应用系统分层两个方面。在当前网络及安全设备虚拟化不断完善的情况下,应用系统分层可完全通过设备配置来实现逻辑分层,不影响网络的物理拓扑。

数据中心网络架构VL2详解

数据中心网络架构VL2详解 vl2通过一种新的网络架构解决传统数据中心中存在的超额认购,资源利用率低,数据中心成本高等问题。增加数据中心内的带宽,并用一种新的寻址方式解决资源分段问题。 一、背景 随着网络技术的发展,数据中心已经成为提供IT网络服务、分布式并行计算等的基础架构。数据中心应用范围愈加广泛,应用需求不断增加,业务数据量达T/P级以上。另外,如视频、金融业务数据等对服务质量、时延、带宽都有严格要求,因此构建数据中心网络时,对于数据中心网络的性能要求很高。 1. 数据中心成本开销 表1中为数据中心的成本开销,其中大部分开销来源于服务器,然而数据中心的服务资源利用率并不高,服务器利用率通常在30%以下。除了利用率低外,供应周期长,需求变化不确定、需求更新快,管理风险大,需要冗余资源来保证容错性等原因都造成了数据中心的成本过高。 表1. 数据中心的成本开销 2. 数据中心性能要求

数据中心的性能要求包括:实现灵活性,可扩展性,多路径传输,低时延、高带宽,模块化设计、网络扁平化设计,低成本、绿色节能等。其中最为重要的是灵活性,即把数据中心的服务可以分配到任何一个服务器上。这样可以提高服务开发的效率,降低成本。实现灵活性的三个重要方面: ?工作负载的管理:可以快速的在服务器上部署服务代码。 ?存储管理:在分布式的存储系统中,服务器可以快速访问存储的数据。 ?网络:服务器可以和数据中心的其他服务器进行通信。 二、树形数据中心网络架构 在传统数据中心中使用最多的为树形架构,如图1所示。传统数据中心网络为一个三层架构,最底层为处理服务的服务器,第二层为进行数据交换的交换机,第三层为进行路由的接入路由器和边界路由器。 1. 处理请求的过程 多种应用同时在数据中心内运行,每种应用一般运行在特定的服务器集合上,在数据中心内部,来自因特网的请求通过负载均衡分配到这个应用对应的服务池中进行处理。其中接收外部请求的IP地址称为虚拟IP地址(VIP),负责处理请求的服务器集合为直接IP地址(DIP)。来自因特网的请求通过3层边界路由器(BR)和接入路由器(AR)被路由到2层域,应用对应的VIP地址被配置在图1中连接的交换机的负载均衡器上(LB),对于每个VIP,LB配置了一个DIP列表,这个列表包括服务器(A)的内部私有地址,根据这个列表,负载均衡器将接收到的请求分配到DIP对应的服务器池中进行处理。

华为数据中心3.0架构白皮书

Technical White Paper High Throughput Computing Data Center Architecture Thinking of Data Center 3.0 Abstract In the last few decades, data center (DC) technologies have kept evolving from DC 1.0 (tightly-coupled silos) to DC 2.0 (computer virtualization) to enhance data processing capability. Emerging big data analysis based business raises highly-diversified and time-varied demand for DCs. Due to the limitations on throughput, resource utilization, manageability and energy efficiency, current DC 2.0 shows its incompetence to provide higher throughput and seamless integration of heterogeneous resources for different big data applications. By rethinking the demand for big data applications, Huawei proposes a high throughput computing data center architecture (HTC-DC). Based on resource disaggregation and interface-unified interconnects, HTC-DC is enabled with PB-level data processing capability, intelligent manageability, high scalability and high energy efficiency. With competitive features, HTC-DC can be a promising candidate for DC3.0. Contents Era of Big Data: New Data Center Architecture in Need 1 ?Needs on Big Data Processing 1 ?DC Evolution: Limitations and Strategies 1 ?Huawei’s Vision on Future DC 2 DC3.0: Huawei HTC-DC 3 ?HTC-DC Overview 3 ?Key Features 4 Summary 6

数据中心网络设计

数据中心网络设计 Last revision date: 13 December 2020.

数据中心高可用网络系统设计方案 数据中心作为承载企业业务的重要IT基础设施,承担着稳定运行和业务创新的重任。伴随着数据的集中,企业数据中心的建设及运维给信息部门带来了巨大的压力,“数据集中就意味着风险集中、响应集中、复杂度集中……”,数据中心出现故障的情况几乎不可避免。因此,数据中心解决方案需要着重关注如何尽量减小数据中心出现故障后对企业关键业务造成的影响。为了实现这一目标,首先应该要了解企业数据中心出现故障的类型以及该类型故障产生的影响。影响数据中心的故障主要分为如下几类: 硬件故障 软件故障 链路故障 电源/环境故障 资源利用问题 网络设计问题 本文针对网络的高可用设计做详细的阐述。 高可用数据中心网络设计思路 数据中心的故障类型众多,但故障所导致的结果却大同小异。即数据中心中的设备、链路或server发生故障,无法对外提供正常服务。缓解这些问题最简单的方式就是冗余设计,可以通过对设备、链路、Server提供备份,从而将故障对用户业务的影响降低到最小。 但是,一味的增加冗余设计是否就可以达到缓解故障影响的目的?有人可能会将网络可用性与冗余性等同起来。事实上,冗余性只是整个可用性架构中的一个方面。一味的强调冗余性有可能会降低可用性,减小冗余所带来的优点,因为冗余性在带来好处的同时也会带来一些如下缺点: 网络复杂度增加 网络支撑负担加重 配置和管理难度增加 因此,数据中心的高可用设计是一个综合的概念。在选用高可靠设备组件、提高网络的冗余性的同时,还需要加强网络构架及协议部署的优化,从而

相关主题