搜档网
当前位置:搜档网 › HDS,EMC,IBM存储对比

HDS,EMC,IBM存储对比

HDS,EMC,IBM存储对比
HDS,EMC,IBM存储对比

HDS高端存储介绍

与EMC、IBM竞争分析和技术比较

日立数据系统有限公司

2012年2月

目录

第1章中端与高端存储划分分析 (4)

1.1业界公认的中端、高端存储对应分析 (4)

1.2业界选型的高端划分证明 (5)

1.3中端和高端存储差异和划分依据 (7)

1.3.1结构差异,高端多控制器的优势 (7)

1.3.2高端存储的扩展能力优势 (12)

1.3.3高端存储的可靠性优势 (12)

1.3.4容灾优势,高端存储才有三中心技术 (13)

第2章中端存储的对比分析 (15)

第3章高端存储的对比分析 (18)

3.1HDS高端存储指标比较 (31)

3.2HDS高端存储总体优势比较 (35)

3.2.1HDS高端存储市场占有第一 (35)

3.2.2HDS存储100%承诺的可靠性第一 (36)

3.2.3安全服务、易用易管理第一 (38)

3.2.4完美高端“交换式”结构带来的性能第一 (38)

3.2.5HDS存储创新的“软件功能”第一 (39)

3.2.6HDS有众多OEM厂商,开放性第一 (40)

第4章国家电网2010年存储入围选型档次对应说明 (41)

第5章HDS解决方案的优势对比 (43)

附件:HDS、EMC、IBM存储详细比较 (48)

第1章中端与高端存储划分分析

1.1业界公认的中端、高端存储对应分析

HDS、EMC与IBM作为传统的竞争对手,存储产品线的发展一直处于交替竞争状态。目前三个厂商都把自身产品明确分为中端和高端存储产品线,高端存储主要为HDS的VSP系列,EMC的DMX系列,IBM DS8000系列,并主要采用多控制器结构,在扩展容量的同时可以横向扩展控制器并保证性能扩展。中端存储主要为HDS AMS2000系列,EMC CX4系列(刚升级为VNX系列),IBM DS5000系列,HP EVA系列,主要采用双控制器接口,尤其两个控制器已经固定配置,能够扩展的只有容量。

在高端存储中,业内公认竞争比较关系如下图,其中HP和SUN都是OEM的HDS高端存储,SUN已经被ORACLE收购,因此目前拥有高端技术的只有HDS、EMC、IBM这三个厂商(IBM因为采用2台小机的控制器结构只能是部分高端技术):

在中端存储产品中,业内公认竞争比较关系如下图:

具体的对比分析详见后面的参数对比详细说明部分。

1.2业界选型的高端划分证明

本次某用户项目是全国大集中项目,需要有一个能够满足大型数据中心应用和很大扩展能力的大规模高端存储。而高端存储如何选型?在金融、电信、政府、大型国企的选型中,经过很多的比较和专家研究,已经有了很成熟的高端、中端存储的型号对应关系,这些用户的选型依据完全可以做为本次项目的参考。

选型依据1:中国联通、中国电信等等运营商

中国移动、中国联通于2011的集中采购招标中选型档次划分如下,可以看到的

是最高端存储为HDS的VSP/.USP系列,EMC的DMX4系列,IBM DS8800:

选型依据2:中国人寿

中国人寿于近期的招标项目中,特别备注存储采用高端存储:HDS的VSP/.USP 系列,EMC的DMX4系列,IBM DS8800。

选型依据3:中国电网

中国电网于近年来的招标项目中,特别进行了每年的集采入网,最新一起的比较还是最高端存储为HDS的VSP/.USP系列,EMC的DMX4系列,IBM DS8800:

这些行业内的用户选型清楚的表明,最高端存储的关心,而且近期三个厂商都有相应产品参加投标和竞争,因此这些产品都没有停产。

1.3中端和高端存储差异和划分依据

1.3.1结构差异,高端多控制器的优势

XXXX项目需要大规模高端存储。近年来行业内应用系统存储选型已经验证了最高端存储为HDS的VSP/.USP系列,EMC的DMX4系列,IBM DS8800,而这样的高端存储与中端存储的差异是非常明显的,主要体现在控制器架构、扩展能力、软件功能等多方面。以下为总体说明(主要内容摘自中科院研究员韩晓明撰写的文章):

磁盘阵列技术诞生于1987年,由美国加州大学伯克利分校提出。经过多年的发展,磁盘阵列也越发受到用户和厂商的重视。自然,当前市场上的磁盘阵列也是一番花团锦簇的景象,在为用户提供了众多选择的同时,也带来了选择上的困难。

光纤磁盘阵列又可进一步从体系结构细分,归根到底,从体系结构讲,我们可以将光纤磁盘阵列分成三大类:JBOD磁盘阵列、双控制器磁盘阵列和多控制器磁盘阵列。JBOD磁盘阵列早已推出历史舞台,本次项目主要对比双控制器中端阵列和多控制器高端阵列供选型。

双控制器中端磁盘阵列:

随着用户对存储可靠性以及读写性能需求的提升,双控制器磁盘阵列随之问世。顾名思义,此类磁盘阵列拥有两个控制器。这样做的主要目的便是为了提升可靠性。控制器实际是在磁盘阵列控制单元配置处理器、同时配置相应的CACHE。控制器上的CPU和CACHE共同实现对来自主机系统I/O请求的操作及磁盘阵列的RAID 管理。

相对于JBOD磁盘阵列,双控制器磁盘阵列释放了大量主机资源,来自主机的I/O请求由控制器接受并处理,阵列上的CACHE则是一个I/O缓冲池,这便提高了磁盘阵列的读写速度。由于配置了CPU和CACHE这类磁盘阵列中的部分高端产

品还可以运行基于磁盘阵列的存储软件,提供比较全面的基于磁盘阵列的解决方案。

在当前存储市场上,这一类的磁盘阵列数量大,同时也在质量和性能上也存在着巨大的差距。其代表产品有IBM DS系列、HP EVA系列、EMC CX系列(当前的VNX系列)、HDS AMS系列等等。

这类产品中比较新推出的是HDS AMS2000系列产品和EMC VNX系列产品,其中HDS AMS2000引入了高端存储中的对称双活自均衡控制器和分区技术,使得其具备了部分高端存储功能特性,而EMC VNX是CX4系列的中端替代产品,在端口、缓存、和磁盘容量扩展上有了较大幅度的提升。但是HDS AMS2000和EMC VNX还是中端磁盘阵列,原因是它们都是双控制器存储,能够扩展的只有硬盘容量,性能无法扩展因此I/O吞吐能力都必然受到限制。

还有就是为使得中端受限制的控制器能够扩展,EMC推出了V-MAX系列,HP 推出了3-PAR系列,它们都是将现有的中端阵列控制器通过简单的数据线级联起来,虽然指标上接近高端阵列的配置,但实际每个运行的单元还是中端阵列,更重要的是每个单元都有独立的CPU、缓存、硬盘,但主机从一个单元接入访问另一个单元的磁盘时,CPU和缓存无法共享,因此会产生大量延时,因此EMC V-MAX、HP 3-PAR这样的结构只能是中端的高级配置和延伸,不能做为高端阵列。

另一个比较引人注目的是IBM DS8000系列产品,从体系结构来看,IBM的DS8000系列产品是典型双控制器结构的产品,其DS-8800产品的每个控制器是8个CPU的P570小型机,双控制器最大配置CPU数量为16个CPU。客观来看,DS-8000系列产品是双控制器体系结构产品中的高端产品,因此该产品具有了许多高端产品的外在特征,是IBM公司参与高档存储产品市场竞争的主要武器,和竞争对手高档产品相比其价格优势非常明显。

然而IBM DS-8000系列产品对于高性能数据中心的应用而言存在严重问题,它的非易失性写CACHE只有8GB(16GB镜像后),当写操作量超过8GB后将只能写盘,因而将导致性能严重下降。

多控制器磁盘阵列:

第三类是多控制器磁盘阵列, 双控制器磁盘阵列由于控制器只能配置两个,不能在同一磁盘阵列内配置更多控制器,即使当前最高端的双控制器产品最多也只能配置8个核心的处理器,这一定程度上局限了其数据处理能力,也难以确保高效率实施存储软件解决方案。但是市场上客观需要能在同一磁盘阵列内根据需求配置更多处理器的存储系统。多控制器磁盘阵列便应运而生,它可以配置更多更专用的控制器、更大的CACHE及更大的容量.综合而论,其体系结构特点如下:若干前端控制器:管理主机和CACHE之间I/O及运行基于存储的软件解决方案。

若干缓冲CACHE:巨大的非易失性CACHE,它是系统性能超群的基础之一。

若干后端控制器:管理CACHE和物理磁盘组之间I/O及运行基于存储的软件解决方案。

多控制器体系结构能够实现各个控制器的分工协作,系统整体性能因而可以获得最佳扩展性和可用性。更重要的是在多控制器体系结构基础上提供了许多独特存储软件解决方案。该档次产品是大型关键业务数据中心的首选。

目前掌握高档多控制器体系结构产品技术的厂家主要是HDS公司和EMC公司这两家美国公司,产品就是HDS VSP和EMC DMX。所有主机厂商因为市场覆盖广,因此其磁盘阵列市场占有率也较高,但到目前为止所有主机厂商掌握自主知识产权的磁盘阵列都停留在双控制器磁盘阵列这个层面。HP公司和SUN公司的多控制器体系结构磁盘阵列都是OEM HDS产品,当然其产品的技术走向也自然掌握在了HDS手中。OEM厂家和设备原厂的主要区别体现在软件界面、磁盘型号选择以及服务能力等。

从体系结构来看,HDS VSP和EMC DMX的多控制器磁盘阵列产品没有什么显著区别。两者产品的具体差异主要体现在配置CPU类型、配置CACHE的大小以及各部件互连技术等硬件部件设计不同。这些设计的不同导致了性能及可靠性的差异,HDS系列产品采用交换式互连技术,CACHE并发读写能力较高,数据CACHE 可以达到128GB带宽,控制CACHE可以达到64GB带宽,更重要的是VSP在多控制器基础上发展的独特3D扩展模式,可以在控制器柜满配置后再向外级联控制器柜达到更大扩展,这正是其性能优良的基础;对比EMC的DMX系列产品由于采用直连式体系结构,因此其CACHE(控制CACHE和数据CACHE总计)并发读写最大只能达到32路并发读写。

同时基于硬件基础上的软件解决方案成熟度、实用性、全面性的差异以及专业服务能力等等也是用户选择这两大产品的主要参考因素。比如基于HDS的VSP系列产品可以提供全面成熟的虚拟化技术。

总之,从根本讲磁盘阵列技术主要差异点在于体系结构,体系结构的差异性是磁盘阵列档次划分的主要参考指标。对于本项目而言,HDS VSP 系列和EMC DMX 系列磁盘阵列产品是高端大规模存储的选型。

1.3.2高端存储的扩展能力优势

监管系统数据在初始数据量的基础上将不断膨胀,访问量也将不断提升,这就需要本次配备的设备具有全方位的扩展能力。当前市场上很多阵列采用不可扩充的双控制器固化结构,只能扩展一定的硬盘容量而无法提升性能,因此IOPS只能达到30-50万左右,并发带宽一般4-32GB左右。

多控制器架构使得高端阵列扩展能力大大超过了当前的各种中端阵列,比如HDS VSP控制器可以在基本的一对控制板基础上扩展到32对,在线提升性能。因此IOPS可以达到450万左右,并发带宽192GB,容量扩展为255PB,无论是性能扩展还是容量扩展都是一般阵列的数倍以上。如果选用了高端磁盘阵列,XXXX的整体数据存储可以在一个统一存储平台上平滑扩展,充分保证了系统未来多年的持续发展。

1.3.3高端存储的可靠性优势

数据100%可靠是XXXX系统持续运行发展的关键。从本质看中端存储阵列都通过全冗余技术来保证设备和数据的可靠可用性,但是都无法达到100%数据高可用,因为中端阵列都是双控制器结构,当1台控制器内部的部件故障时,这个控制器会完全失效,数据访问需要切换,在失去50%的性能前提下,另一个控制器完全成为单点,况且控制器切换也不是100%能够成功的,这对核心存储的可靠运行产生了重大影响。在国内金融、电信、政府很多用户的关键业务都出现过阵列宕机和业务中

断也主要出于以上问题。

HDS VSP和EMC DMX区别于一般阵列的双控制器而采用多冗余控制,是多对一的冗余,且部件故障后无需切换,因为本来就是并行访问的,具有更大的可靠性。另外,作为最大的独立第三方存储厂商,HDS在设备可靠性上确实有更好的口碑。更重要的是HDS公司承诺VSP存储100%高可用性,它意味设备在任何情况下都能保证业务连续运行,甚至在设备升级和故障维护时。业界目前只有HDS存储设备保持着“0”宕机和“0”数据丢失的记录,也只有HDS公司提出存储产品可以提供100%的可用性承诺,即如果发生宕机和数据丢失,HDS将对用户进行赔偿,这对所有用户数据的可靠性保证提供了可参考的依据,毕竟其它厂商的存储设备都出现过导致业务中断的问题。

1.3.4容灾优势,高端存储才有三中心技术

基于存储远程数据复制的容灾建设是当前各个数据中心普遍采用的技术,阵列容灾重点需要解决数据一致性和最少数据丢失的问题,高端存储产品的容灾复制功能在此方面都具备完善的设计,比如数据一致性通过时间戳、顺序号解决,保证容灾数据是可用的,而实时的容灾数据传送也保证了最少数据丢失,RPO可控制在秒级甚至“0”数据,对生产系统影响小且链路带宽要求很低。很多中端阵列虽然也有容灾复制的功能,但其技术设计还无法达到更先进的水平,远程容灾时的一般RPO只能控制在分钟级。这就意味着丢失更多的数据,需要更多甚至几倍的系统灾难恢复时间,另外这些技术对生产系统影响大且链路带宽要求远远高于高端阵列的容灾技术。

更重要的是,只有高端阵列如HDS VSP和EMC DMX具备建设多点三数据中心的能力,而中端阵列HDS AMS2000和EMC VNX都只能两点容灾传输。而XXXX的方案需要在同机房部署两台背靠背阵列,同城异地需要一台同型号阵列,这就是三台阵列

的三中心架构,目前只有HDS VSP和EMC DMX、IBM DS8100能够实现基于阵列的三点复制。

第2章中端存储的对比分析

XXXX本次项目对存储要求很好,同时还要实现容灾,因此并不建议采用中端系列存储,不过可以通过以下的分析对比,了解中端存储市场的技术格局和档次对应。AMS2500为HDS最新的系列产品,它与其它厂商中高端产品主要规格比较见下表:

可以看到的是,AMS2500在与友商的其它产品对比时,尤其是与中高端最高档次的产品对比时,主要的技术规格如CAHCE、磁盘扩展、主机接口等相当或高于,尤其是IOPS的性能指标中,AMS2500是最高的,在权威第三方评测中也是最高的:SPC1的IOPS实际测试=89,491.81,而且特有的对称双活自均衡控制器、SAS-Switch高性能后端管理、存储CACHE分区技术。当然,EMC VNX由于是最新发布,因此在一些指标上更加突出,比如硬盘可以扩展到1000块,但这不代表其具备了高端的性能和可靠性,最大缓存和端口也比高端阵列少了近十倍,因为

它还是中端双控制器结构。

第3章AMS2000优势说明

3.1AMS2000产品优势说明

存储系统高性能说明:

首先,我们来分析一下提升存储性能的几个关键点:

?存储系统控制器架构设计,包括以下几方面:

控制器结构简单——单一处理结构

–单种CPU堆叠结构;

–采用单种CPU处理各种不同功能(包括部分不适合CPU执行的功能),导致系统效率低下

控制器间不能负载均衡,只能冗余保护

–对外部主机请求不能实现对称均衡处理;

–对内部LUN管理不能实现均衡负载;

–系统资源利用率低,整体性能不高

?Cache利用

只能规划固定的缓存段尺寸,导致缓存命中率极低,频繁的从磁盘装载数据。

?后端磁盘设计

–单路(形式上是双路,实质上是单路)FC Loop控制大量磁盘——共享总线方式下管理后端读写,难于满足大量随机并发访问要求;

–单路FC后端最大带宽为4Gbps,不能满足海量数据的写入或读出,对后端持续吞吐的要求

–随着磁盘的数量增多,整体RAID性能反而下降

那么我们来简单的了解一下HDS AMS2000产品是如何来解决这些问题的:存储系统控制器架构设计

–采用专有ASIC电路进行RAID计算,有效提高计算效率

–采用专有内核操作系统,降低存储系统内部资源损耗

高效的Cache利用

–Cache分区管理,从应用优先级角度对Cache进行资源分配

–Cache读写比例自动调整,根据读写I/O的进行动态调整

–Cache区块大小的分配,针对不同应用类型数据块配置不同Cache 区块

后端磁盘设计

–高带宽、高并发的后端SAS交换结构设计,发挥存储系统的最大效能–突破光纤环路限制,采用真正的SAS交换结构

–单一LUN实现负载均衡

下面我们来详细说明AMS2000的体系架构:

存储系统控制器架构设计

HDS AMS 2000采用全新的体系结构—HiPer提高了系统的I/O能力。一般,模块

化阵列系统采用的是内部共享总线结构,CPU是整个控制系统的核心;缓存、前端接口、后端接口通过共享的总线进行数据交换。与传统共享总线结构不同,在HDS AMS 2000的系统中采用了类似HDS USP系列中的内存交换结构,并且将这种结构通过一个专用的大规模集成电路实现;这个大规模集成电路是由日立公司专门研发的RAID性能增强IC。该IC采用的是第八代DCTL-S控制部件,是整个HiPer结构的核心,而CPU只是用来处理管理及协调。

缓存、前端接口和后端磁盘通道接口都是通过Hi-Per结构以交换的方式进行数据传输。并且在两个控制器的Hi-Per结构之间通过8通路的PCI-E链路实现负载平衡的内部数据交换,包括任意前端到任意后端的反问和写I/O的镜像操作等,这样可以保证两个控制器在Dual Active模式下工作的性能。

独特的对称双活和自均衡控制器

AMS2000存储系统进行了创新性的设计,彻底改变了原有中端磁盘阵列在双控制器上割裂式的访问带来的弊端,在AMS2000以前的所有中端存储产品都存在这样的问题:

所有存储里可用的LU都必须手工分配主控制器和Ownership,另一个控制器对这个LU只能“袖手旁观”,只有主控制器故障时起到备份作用。这一方面难以做到真正的负载均衡,另一方面在主控制器故障切换到备份控制器时有访问的中断,至少几秒到几十秒,很可能导致数据库和系统的宕机;

由于所有的LU都已经手工分配给各自的主控制器,当大数据量访问到来时,每个控制器只能“各自为战”的处理各自管理的LU,而手工分配很难做的真正的均衡,总会造成“忙的忙死,闲的闲死”无法调度的局面,这才是中端存储区别于高端存储技术的最大问题!

大数据存储方式概述

大数据存储方式概述 随着信息社会的发展,越来越多的信息被数据化,尤其是伴随着Internet的发展,数据呈爆炸式增长。从存储服务的发展趋势来看,一方面,是对数据的存储量的需求越来越大,另一方面,是对数据的有效管理提出了更高的要求。首先是存储容量的急剧膨胀,从而对于存储服务器提出了更大的需求;其次是数据持续时间的增加。最后,对数据存储的管理提出了更高的要求。数据的多样化、地理上的分散性、对重要数据的保护等等都对数据管理提出了更高的要求。随着数字图书馆、电子商务、多媒体传输等用的不断发展,数据从GB、TB 到PB量级海量急速增长。存储产品已不再是附属于服务器的辅助设备,而成为互联网中最主要的花费所在。海量存储技术已成为继计算机浪潮和互联网浪潮之后的第三次浪潮,磁盘阵列与网络存储成为先锋。 一、海量数据存储简介 海量存储的含义在于,其在数据存储中的容量增长是没有止境的。因此,用户需要不断地扩张存储空间。但是,存储容量的增长往往同存储性能并不成正比。这也就造成了数据存储上的误区和障碍。海量存储技术的概念已经不仅仅是单台的存储设备。而多个存储设备的连接使得数据管理成为一大难题。因此,统一平台的数据管理产品近年来受到了广大用户的欢迎。这一类型产品能够整合不同平台的存储设备在一个单一的控制界面上,结合虚拟化软件对存储资源进行管理。这样的产品无疑简化了用户的管理。 数据容量的增长是无限的,如果只是一味的添加存储设备,那么无疑会大幅增加存储成本。因此,海量存储对于数据的精简也提出了要求。同时,不同应用对于存储容量的需求也有所不同,而应用所要求的存储空间往往并不能得到充分利用,这也造成了浪费。 针对以上的问题,重复数据删除和自动精简配置两项技术在近年来受到了广泛的关注和追捧。重复数据删除通过文件块级的比对,将重复的数据块删除而只留下单一实例。这一做法使得冗余的存储空间得到释放,从客观上增加了存储容量。 二、企业在处理海量数据存储中存在的问题 目前企业存储面临几个问题,一是存储数据的成本在不断地增加,如何削减开支节约成本以保证高可用性;二是数据存储容量爆炸性增长且难以预估;三是越来越复杂的环境使得存储的数据无法管理。企业信息架构如何适应现状去提供一个较为理想的解决方案,目前业界有几个发展方向。 1.存储虚拟化 对于存储面临的难题,业界采用的解决手段之一就是存储虚拟化。虚拟存储的概念实际上在早期的计算机虚拟存储器中就已经很好地得以体现,常说的网络存储虚拟化只不过是在更大规模范围内体现存储虚拟化的思想。该技术通过聚合多个存储设备的空间,灵活部署存储空间的分配,从而实现现有存储空间高利用率,避免了不必要的设备开支。 存储虚拟化的好处显而易见,可实现存储系统的整合,提高存储空间的利用率,简化系统的管理,保护原有投资等。越来越多的厂商正积极投身于存储虚拟化领域,比如数据复制、自动精简配置等技术也用到了虚拟化技术。虚拟化并不是一个单独的产品,而是存储系统的一项基本功能。它对于整合异构存储环境、降低系统整体拥有成本是十分有效的。在存储系统的各个层面和不同应用领域都广泛使用虚拟化这个概念。考虑整个存储层次大体分为应用、文件和块设备三个层次,相应的虚拟化技术也大致可以按这三个层次分类。 目前大部分设备提供商和服务提供商都在自己的产品中包含存储虚拟化技术,使得用户能够方便地使用。 2.容量扩展 目前而言,在发展趋势上,存储管理的重点已经从对存储资源的管理转变到对数据资源

数据存储的四种常见方式

https://www.sodocs.net/doc/a717716140.html, 数据存储的四种常见方式 数据存储,它的概念为数据在交流过程的情况下发生的临时数据以及加工的操作的进程里面要进行查找的讯息,一般的存储介质包含有磁盘以及磁带。数据存取的方法和数据文件组织紧紧的相连,它的最主要的就是创立记录逻辑和物理顺序的两者之间的互相对应的联系,进行存储地址的肯定,从而使得数据进行存取的速度得到提升。进行存储介质的方法因为使用的存储介质不一样采用的方法也不一样,当磁带上面的数据只是按照次序来进行存取的时候;在磁盘上面就能够根据使用的需求使用顺序或者是直接存取的方法。 ●在线存储 (Online storage):有时也称为二级存储。这种存储方式的好处是读写非常 方便迅捷,缺点是相对较贵并且容易因为误操作或者防病毒软件的误删除而使数据受到损害。这种存储方式提供最好的数据获取便利性,大磁盘阵列是其中最典型的代表之一。 ●脱机存储 (Offline storage):脱机存储用于永久或长期保存数据,而又不需要介质当 前在线或连接到存储系统上。这种存储方式指的是每次在读写数据时,必须人为的将存储介质放入存储系统。脱机存储的介质通常可以方便携带或转运,如磁带和移动硬盘。 ●近线存储 (Near-line storage):也称为三级存储。自动磁带库是一个典型代表。比起 在线存储,近线存储提供的数据获取便利性相对差一些,但是价格要便宜些。近线存储由于读取速度较慢,主要用于归档较不常用的数据。 ●异站保护 (Off-site vault):这种存储方式保证即使站内数据丢失,其他站点仍有数 据副本。为了防止可能影响到整个站点的问题,许多人选择将重要的数据发送到其他站点来作为灾难恢复计划。异站保护可防止由自然灾害、人为错误或系统崩溃造成的数据丢失。

EMCVPLEX安装实施方案

VPLEX-LOCAL 的硬件配置信息 此次安装的VPLEX-Local有单台台VPLEX组成, VPLEX的硬件配置如下: 1) 1 个 Engine 2) 2 个 Director ,每个 Engine 由两个 Director 组成 3)8 个 8Gb 前端 FC端口,每 个 Director 包含一块 前端 FC卡,共 4 个 8Gb 的前端 FC端 口,由 于交换机端口限制,本次使 用 4 个前端 FC端口(每个 Directo 上两个)。 4)8 个 8Gb 后端 FC端口,每 个 Director 包含一块 后端 FC卡,共 4 个 8Gb 的后端 FC端 口。本 次使用4 个前端 FC 端口(每个Directo 上两个) 5) 4 个可用的 8Gb 的 VPLEX-Local级联 FC端口,每个 Director 包含一块 VPLEX-Local 级联 FC卡,共 4 个 8Gb 的级联 FC端口,但是只有两个可用 VPLEX-LOCAL 的硬件介绍 单台 VPLEX的硬件布局 VPLEX 的 ENGINE 的硬件布局

VPLEX-LOCAL 的级联端口连接VPLEX-LOCAL 拓扑结构

VPLEX-LOCAL 的 FABRIC 拓扑图 Host Host Fabric Switch Fabric Switch Management server Engine power supply VNX VPLEX VNX VPLEX-LOCAL 后端存储系统的配置 HOST_PRD HOST_BAK VPLEX_0550 VPLEX_0549 VMAX_3358 V p l e x M e t a v o l u m e ( >= 78GB, using 144GB ) Host data volume

几种常见网络存储技术的比较(精)

几种常见网络存储技术的比较 一、直接附加存储(DAS 是指将存储设备直接连接服务器上使用。成本低,配置简单,和使用本机硬盘并无太大差别。DAS问题:(1服务器容易成为系统瓶颈;(2服务器发生故障,数据不可访问;(3对于存在多个服务器的系统来说,设备分散,不便管理。(4数据备份操作复杂。 二、网络附加存储(NAS NAS是一种带有瘦服务器的存储设备。NAS设备直接连接到TCP/IP网络上,网络服务器通过TCP/IP网络存取管理数据。由于NAS只需要在一个磁盘阵列柜外增加一套瘦服务器系统,对硬件要求很低,成本不高。NAS 主要问题是:(1由于存储数据通过普通数据网络传输,因此易受流量的影响。(2由于存储数据通过普通数据网络传输,因此容易产生数据泄漏等安全问题;(3存储只能以文件方式访问,而不能像普通文件系统一样直接访问物理数据块,因此会在某些情况下严重影响系统效率,比如大型数据库就不能使用NAS。 NAS(Network Attached Storage:网络附属存储是将分布独立的数据整合为数据中心,以便于访问的技术,也称为“网络存储器”。以数据为中心,将存储设备与服务器彻底分离,集中管理数据,从而释放带宽、提高性能、降低成本。其成本远低于使用服务器存储,而效率却远远高于后者。NAS的存储以文件为单位,一般支持CIFS / HTTP / FTP等方式的访问。 NAS:NAS从结构上讲就是一台精简型的电脑,在架构上不像个人电脑那么复杂,在外观上就像家电产品,只需电源与简单的控制钮,。一般只具有网络接口。也有部分NAS产品需要与SAN产品连接,可能会有FC接口。NAS产品一般用系统软件。一个NAS系统包括处理器,文件服务管理模块和多个硬盘驱动器(用于数据的存储。NAS 可以应用在任何的网络环境当中。主服务器和客户端可以非常方便地

emcvplex安装实施方案

E M C V P L E X安装实施方案-标准化文件发布号:(9456-EUATWK-MWUB-WUNN-INNUL-DDQTY-KII

VPLEX-LOCAL的硬件配置信息 此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下: 1)1个Engine 2)2个Director,每个Engine由两个Director组成 3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口, 由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。 4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。 本次使用4个前端FC端口(每个Directo上两个) 5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC 卡,共4个8Gb的级联FC端口,但是只有两个可用 VPLEX-LOCAL的硬件介绍 单台VPLEX的硬件布局 VPLEX的ENGINE的硬件布局

拓扑结构 VPLEX-LOCAL的FABRIC拓扑图

Fabric Switch Engine power supply Management server Fabric Switch VNX VNX VPLEX Host Host VPLEX-LOCAL 后端存储系统的配置 META VOLUME 的配置 请注意每台VNX 必须使用两个RG ,每个RG 各提供两个80G LUN 。Mirror 和backup 的meta volume LUN 需分开RG 存放。不推荐mirror 和 backup 放在同一个RG 里。

常见的几种数据存储方法

https://www.sodocs.net/doc/a717716140.html, 常见的几种数据存储方法 在数据恢复中,小编经常强调“数据覆盖”的问题,也就是数据丢失后,如果往丢失磁盘存入了新数据,那么就可能造成数据覆盖,影响后续的数据恢复进程。因此,也有很多人有疑问:“怎么才能知道新存入的数据是不是刚好覆盖到了丢失数据上面呢?”这个问题其实和我们磁盘的数据存储方法有关了。 我们平时用来保存数据的存储介质不外乎这几种:硬盘、存储卡(内存卡)、U盘、光盘。常见的数据存储方法主要有下面四种: 1、顺序存储方法 把逻辑上相邻的结点存储在物理位置上相邻的存储单元里,结点间的逻辑关系由存储单元的邻接关系来体现。由此得到的存储表示称为顺序存储结构,通常借助程序语言的数组描述。该方法主要应用于线性的数据结构。非线性的数据结构也可通过某种线性化的方法实现顺序存储。 简单来说,如果你的数据存储介质的存储方法是顺序存储,比如顺序是从前往后,那么数据丢失后,新存入的数据也是按照从前往后的顺序写入的。 2、链接存储方法 该方法不要求逻辑上相邻的结点在物理位置上亦相邻,结点间的逻辑关系由附加的指针字段表示。由此得到的存储表示称为链式存储结构,通常借助于程序语言的指针类型描述。 这种存储方法乍一看是没有顺序可言的,可以简单理解成数据呈点状存储在磁盘中。 3、索引存储方法 该方法通常在储存结点信息的同时,还建立附加的索引表。索引表由若干索引项组成。若每个结点在索引表中都有一个索引项,则该索引表称之为稠密索引。若一组结点在索引表中只对应一个索引项,则该索引表称为稀疏索引。索引项的一般形式是:(关键字、地址)。 关键字是能唯一标识一个结点的那些数据项。稠密索引中索引项的地址指示结点所在的存储位置;稀疏索引中索引项的地址指示一组结点的起始存储位置。 4、散列存储方法 该方法的基本思想是:根据结点的关键字直接计算出该结点的存储地址。 四种基本存储方法,既可单独使用,也可组合起来对数据结构进行存储映像。同一逻辑结构采用不同的存储方法,可以得到不同的存储结构。选择何种存储结构来表示相应的逻辑结构,视具体要求而定,主要考虑运算方便及算法的时空要求。

网络存储试题及答案..

1、下列典型行业应用对存储的需求,正确的是( C ) A.WEB应用不包括对数据库的访问 B.WEB应用是大数据块的读取居多 C.邮件系统的数据特点介于数据库和普通文件二者之间,邮件用户等信息属于数据库操作,但是每个用户的邮件又是按照文件组织的 D.视频点播系统要求比较高的IOPS,但对存储带宽的稳定性要求不高 2、对于存储系统性能调优说法正确的是:( C ) A. 必须在线业务下进行调优 B. 存储系统的调优可以与主机单独进行,应为两者性能互不影响 C. 存储系统的性能调优属于系统性调优,需要了解客户IO模型、业务大小、服务器资 源利用和存储侧资源利用综合分析,对于存储侧重点关注RAID级别,分条深度, LUN映射给主机的分布情况等 D. 以上都不正确 3、不具备扩展性的存储架构有( A ) A. DAS B. NAS C. SAN D. IP SAN 4、DAS代表的意思是( D )direct access s A. 两个异步的存储 B. 数据归档软件 C. 连接一个可选的存储 D. 直连存储 5、哪种应用更适合采用大缓存块?( A ) A. 视频流媒体 B. 数据库 C. 文件系统 D. 数据仓库 6、衡量一个系统可靠性常见时间指标有哪些?( CD ) A. 可靠度 B. 有效率 C. 平均失效时间 D. 平均无故障时间 7、主机访问存储的主要模式包括( ABC ) A. NAS B. SAN C. DAS D. NFS 8、群集技术适用于以下场合:( ABCD ) A. 大规模计算如基因数据的分析、气象预报、石油勘探需要极高的计算性 B. 应用规模的发展使单个服务器难以承担负载 C. 不断增长的需求需要硬件有灵活的可扩展性 D. 关键性的业务需要可靠的容错机制 9、常见数据访问的级别有( AD ) A.文件级(file level) B.异构级(NFS level) C.通用级(UFS level) D.块级(block level) 10、常用的存储设备介质包括( ABC ) A. 硬盘 B. 磁带 C. 光盘 D. 软盘 11、常用的存储设备包括( ABCD) A. 磁盘阵列 B. 磁带机 C. 磁带库 D. 虚拟磁带库 12、存储网络的类别包括( ABC ) A. DAS B. NAS C. SAN D. Ethernet 13、常用数据备份方式包括( ACD ) A. D2D B. D2T2D C. D2D2T D. D2T 14、为了解决同位(为)检查码技术的缺陷而产生的一种内存纠错技术是( D ) A. Chipkill B. 热插拔 C. S.M.A.R.T D. Advanced ECC Memory 15、以下不是智能网卡的主要特点是( D ) A. 节能降耗 B. 降低TCO C. 数据更安全 D. 可作为主机总线适配器HBA使用

emcvplex安装实施方案

VPLEX-LOCAL的硬件配置信息 此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下: 1)1个Engine 2)2个Director,每个Engine由两个Director组成 3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口, 由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。 4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。 本次使用4个前端FC端口(每个Directo上两个) 5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联 FC卡,共4个8Gb的级联FC端口,但是只有两个可用 VPLEX-LOCAL的硬件介绍 单台VPLEX的硬件布局 VPLEX的ENGINE的硬件布局 VPLEX-LOCAL的级联端口连接

PLEX-LOCAL 拓扑结构 VPLEX-LOCAL 的FABRIC 拓扑图 Fabric Switch Engine power supply Management server Fabric Switch VNX VNX VPLEX Host Host VPLEX-LOCAL 后端存储系统的配置

VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB )Vplex Meta volume backup ( >=78GB, using 144GB )VPLEX logging volume ( >=10GB, using 72GB ) Host data volume VMAX_0251 HOST_BAK HOST_PRD VPLEX_0550VPLEX_0549 Host data volume Host data volume META VOLUME 的配置 请注意每台VNX 必须使用两个RG ,每个RG 各提供两个 80G LUN 。Mirror 和backup 的meta volume LUN 需分开RG 存放。不推荐mirror 和 backup 放在同一个 RG 里。Cluster Meta Volume Storage RAID Group LUN ID RAID Size VPLEX_01Meta_Mirror_1 VNX5400RG1800RAID1080GB Meta_Bcakup_1 VNX5400RG1801RAID1080GB Meta_Mirror_2 VNX5400RG0800RAID1080GB Meta_Backup_2VNX5400RG0801 RAID1080GB LOGGING VOLUME 的配置 Cluster Log Volume Storage RAID Group LUN ID RAID Size VPLEX_01Loggin_Mirror_1 VNX5400802RAID1010GB Mirror 2VNX5400802RAID1010GB VPLEX-LOCAL 安装配置流程

数据存储的四种常见方式

数据存储的四种常见方式 This model paper was revised by the Standardization Office on December 10, 2020

数据存储的四种常见方式 数据存储,它的概念为数据在交流过程的情况下发生的临时数据以及加工的操作的进程里面要进行查找的讯息,一般的存储介质包含有磁盘以及磁带。数据存取的方法和数据文件组织紧紧的相连,它的最主要的就是创立记录逻辑和物理顺序的两者之间的互相对应的联系,进行存储地址的肯定,从而使得数据进行存取的速度得到提升。进行存储介质的方法因为使用的存储介质不一样采用的方法也不一样,当磁带上面的数据只是按照次序来进行存取的时候;在磁盘上面就能够根据使用的需求使用顺序或者是直接存取的方法。 在线存储 (Online storage):有时也称为二级存储。这种存储方式的好处是读写非常方便迅捷,缺点是相对较贵并且容易因为误操作或者防病毒软件的误删除而使数据受到损害。这种存储方式提供最好的数据获取便利性,大磁盘阵列是其中最典型的代表之一。 脱机存储 (Offline storage):脱机存储用于永久或长期保存数据,而又不需要介质当前在线或连接到存储系统上。这种存储方式指的是每次在读写数据时,必须人为的将存储介质放入存储系统。脱机存储的介质通常可以方便携带或转运,如磁带和移动硬盘。 近线存储 (Near-line storage):也称为三级存储。自动磁带库是一个典型代表。比起在线存储,近线存储提供的数据获取便利性相对差一些,但是价格要便宜些。近线存储由于读取速度较慢,主要用于归档较不常用的数据。 异站保护 (Off-site vault):这种存储方式保证即使站内数据丢失,其他站点仍有数据副本。为了防止可能影响到整个站点的问题,许多人选择将重要的数据发送到其他站点来作为灾难恢复计划。异站保护可防止由自然灾害、人为错误或系统崩溃造成的数据丢失。

存储类型分类资料

常见存储类型 对于企业存储设备而言,根据其实现方式主要划分为DAS、SAN和NAS三种,分别针对不同的应用环境,提供了不同解决方案。(区别见图2) 图1三种存储技术比较 DAS DAS(Direct Attach Storage):是直接连接于主机服务器的一种储存方式,每一台主机服务器有独立的储存设备,每台主机服务器的储存设备无法互通,需要跨主机存取资料时,必须经过相对复杂的设定,若主机服务器分属不同的操作系统,要存取彼此的资料,更是复杂,有些系统甚至不能存取。通常用在单一网络环境下且数据交换量不大,性能要求不高的环境下,可以说是一种应用较为早的技术实现。 SAN SAN(Storage Area Network):是一种用高速(光纤)网络联接专业主机服务器的一种储存方式,此系统会位于主机群的后端,它使用高速I/O 联结方式, 如SCSI, ESCON 及 Fibre- Channels。一般而言,SAN应用在对网络速度要求高、对数据的可靠性和安全性要求高、对数据共享的性能要求高的应用环境中,特点是代价高,性能好。例如电信、银行的大数据量关键应用。

NAS NAS(Network Attached Storage):是一套网络储存设备,通常是直接连在网络上并提供资料存取服务,一套 NAS 储存设备就如同一个提供数据文件服务的系统,特点是性价比高。例如教育、政府、企业等数据存储应用。 三种技术比较 以下,通过表格的方式对于三种存储技术进行一个简单的比较。

表格 1 三种技术的比较 录像存储 录像存储是指将监控图像录制下来,并以文件形式存储在存储设备中,并可在以后随时被读出回放。 存储的实现有多种模式,包括DAS(直连存储)、SAN(存储区域网)和NAS(网络存储)等。DAS就是普通计算机系统最常用的存储方式,即将存储介质(硬盘)直接挂接在CPU的直接访问总线上,优点是访问效率高,缺点是占用系统总线资源、挂接数量有限,一般适用于低端PC系统。SAN是将存储和传统的计算机系统分开,系统对存储的访问通过专用的存储网络来访问,对存储的管理可交付与存储网络来管理,优点是高效的存储管理、存储升级容易,而缺点则是系统较大,成本过高,适用于高端设备。NAS则充分利用系统原有的网络接口,对存储的访问是通过通用网络接口,访问通过高层接口实现,同时设备可专注与存储的管理,优点是系统简单、兼容现有系统、扩容方便,缺点则是效率相对比较低。 典型的传统数字硬盘录像机设备一般都采用DAS方式,即自身包含若干硬盘,录像数据进行压缩编码后直接存储在本地硬盘中,回放也从本地硬盘中读出。网络功能只是个附加的功能,主要面向远程终端实时监控本地图像和回放本地录像。在系统比较大时,这种方式必然是分布式存储的,给系统管理带来了麻烦。数字硬盘录像机的发展将使网络成为中心,而规模的增大使得分布式存储的缺点更加显著。采用NAS作为录像的存储设备,解决了传统数字硬盘录像机所限制的这些问题,作为下一代数字录像系统,其优势表现在: ●优良的设备环境:由于硬盘的不稳定性,需要一个更好的工作环境来延 长硬盘的寿命和减少存储的不可用时间。NAS作为专业的存储设备,针 对多硬盘环境作了优化设计,让硬盘工作的更稳定、更可靠。 ●专业的存储管理:有效的存储管理在数据量上升时更加显得重要,数据 的安全性与冗余性将更受关注。NAS通过专业软件对大容量存储进行管 理,增加安全机制及冗余管理,使得存放的数据更便捷、更放心。 ●轻松的容量扩张:对容量的需求日益增加的今日,更加看重存储容量的 可扩张性。NAS的容量扩张基本上是Plug&Play的模式,方便用户升级。

EMC私有云存储平台方案

EMC私有云存储平台方案 目录 一、前言 (1) 二、VPlex产品及功能概述 (3) 三、方案设计原则 (6) 3.1、数据的安全性和系统的高可靠性 (6) 3.2、系统的高性能 (6) 3.3、系统的可扩展性/可扩充性 (7) 3.4、系统的多平台支撑能力 (7) 3.5、灵活性和系统管理的简单性 (7) 3.6、存储的虚拟化 (8) 四、存储方案设计 (8) 1:存储系统 (8) 2:存储虚拟化系统 (9) 3:系统参考拓扑 (9) 4:建议配置 (11) 5:Vmware EMC优势 –超过70个集成点 (11) 6:方案优势 (15) 五、相关产品介绍 (15) EMC Vplex系列 (15) 一、前言 信息是各行业的命脉, 近十年来信息存储基础设施的建设在各行业取得长足的进步。从内置存储转向外置RAID存储,从多台服务器共享一台外置RAID阵列,再到更多台服务器通过SAN共享更大型存储服务器。存储服务器容量不断扩大的同时,其功能也不断增强,从提供硬件级RAID保护到独立于服务器的跨磁盘阵列的数据镜像,存储服务器逐渐从服务器外设的角色脱离出来,成为单独的“存储层”,为数

据中心的服务器提供统一的数据存储,保护和共享服务。 多数据中心建设方案可以预防单数据中心的风险,但面对多数据中心建设的巨额投资,如何同时利用多数据中心就成为IT决策者的首要问题。同时利用多数据中心就必需实现生产数据跨中心的传输和共享,总所周知,服务器性能的瓶颈主要在IO部分,数据在不同中心之间的传输和共享会造成IO延时,进而影响数据中心的总体性能。 同时,各家厂商不断推出新技术,新产品,容量不断扩展,性能不断提高,功能越来越丰富,但由于不同存储厂商的技术实现不尽相同,用户需要采用不同的管理界面来使用不同厂商的存储资源。这样,也给用户带来不小的问题,首先是无法采用统一的界面来让服务器使用不同厂商的存储服务器,数据在不同厂商存储服务器之间的迁移也会造成业务中断。 客户要求不断提高服务级别,同时希望减少资金成本和运营成本。为满足这些不断变化的要求,数据中心在经历持续的技术转变。近年来,服务器和存储资源整合已被证明是降低成本、提高利用率和提供更大灵活性的有效手段。难题在于如何做到既利用新技术,同时又不损害为最终用户提供的服务级别。 人们往往用“云”这一类比来表述流畅、动态的 IT 基础架构这一构想。云的一个定义是:将向用户提供的 IT 服务与物理基础架构分离开来。云的一种具体实现是:服务器虚拟化,并且环境中所有服务器上的服务都得到优化,这些服务连接到适当的存储,可从 IT 基础架构中的任何位置访问。此外,“云”这一类比描述了这样一种环境:服务可根据需求变化而无缝地移置。图 1 显示了一个私有云基础架构,其中用户与由 IT 提供的服务是松耦合的,而且服务、计算和存储之间的关系是动态、灵活的。

数据存储的四种常见方式精编WORD版

数据存储的四种常见方式精编W O R D版 IBM system office room 【A0816H-A0912AAAHH-GX8Q8-GNTHHJ8】

数据存储的四种常见方式 数据存储,它的概念为数据在交流过程的情况下发生的临时数据以及加工的操作的进程里面要进行查找的讯息,一般的存储介质包含有磁盘以及磁带。数据存取的方法和数据文件组织紧紧的相连,它的最主要的就是创立记录逻辑和物理顺序的两者之间的互相对应的联系,进行存储地址的肯定,从而使得数据进行存取的速度得到提升。进行存储介质的方法因为使用的存储介质不一样采用的方法也不一样,当磁带上面的数据只是按照次序来进行存取的时候;在磁盘上面就能够根据使用的需求使用顺序或者是直接存取的方法。 在线存储(Online storage):有时也称为二级存储。这种存储方式的好处是读写非常方便迅捷,缺点是相对较贵并且容易因为误操作或者防病毒软件的误删除而使数据受到损害。这种存储方式提供最好的数据获取便利性,大磁盘阵列是其中最典型的代表之一。 脱机存储(Offline storage):脱机存储用于永久或长期保存数据,而又不需要介质当前在线或连接到存储系统上。这种存储方式指的是每次在读写数据时,必须人为的将存储介质放入存储系统。脱机存储的介质通常可以方便携带或转运,如磁带和移动硬盘。 近线存储(Near-line storage):也称为三级存储。自动磁带库是一个典型代表。比起在线存储,近线存储提供的数据获取便利性相对差一些,但是价格要便宜些。近线存储由于读取速度较慢,主要用于归档较不常用的数据。 异站保护(Off-site vault):这种存储方式保证即使站内数据丢失,其他站点仍有数据副本。为了防止可能影响到整个站点的问题,许多人选择将重要的数据发送到其他站点

EMC VPLEX-Hardware-Installation-Guide

Introduction This document describes the basic hardware setup tasks for a factory-racked EMC? VPLEX? cluster at a customer site. Steps are included for both VS1 and VS2 VPLEX hardware. Prerequisites 1. Verify that you have the following documents: ?EMC Best Practices Guide for AC Power Connections in Two-PDP Bays - Power requirements, including redundant power feeds on separate circuits (included in Open First box)?EMC AC Power Configuration Worksheet - Power zone identification (included in Open First box)?EMC 40U-C Cabinet Unpacking and Setup Guide - Instructions to unpack and secure the hardware in the data center (attached to cabinet)2. Note the approximate time that you moved the equipment into the data center. The equipment requires the time shown in the following table before you apply power, to prevent condensation on VPLEX components. 3.Confirm that the following customer-supplied cables are available: ?Enough fiber-optic cables to make all necessary I/O connections, each cable with enough additional length to allow for component serviceability and a minimum two-inch bend radius ?Ethernet cable, to connect the VPLEX management server to the network ?Two AC power cables from separate site power sources 4. Review the following information, available on EMC Powerlink ?: ?EMC VPLEX Site Preparation Guide , for electrical, mechanical, and cooling requirements ?EMC Simple Support Matrix , for support information on VPLEX integration into the customer’s storage environment ?Implementation and Planning Best Practices for EMC VPLEX Technical Notes ?EMC VPLEX with GeoSynchrony (version) Configuration Worksheet - Download for use during VPLEX setup Procedure 1.Remove the cable holder kit from the Open First box, and place it into the pouch on the inside of the cabinet’s rear door. 2. VS1 hardware only: a.At the front of the cabinet, remove each engine’s bezel, and confirm that the components shown in the following figure are secure: b.At the rear of the cabinet, push in on each director and the I/O module (IOM) carrier. If a component is not fully seated, loosen the orange screws, push the component firmly in, and retighten the screws. Verify that each IOM’s latch button is in: 3.VS2 hardware only : a.At the front of the cabinet, remove the 2U (3.5 inch) front panel approximately nine inches below the VPLEX nameplate, to expose the laptop service tray. Then remove and discard the two Phillips screws (used only for shipping) that secure the tray to the NEMA rails, and snap the front panel back into place.b.Remove each engine’s front panel. Then check the latches on all power supplies, and directors, and confirm that the components are secure. When finished, replace the front panel(s). c.At the rear, check the latches on all modules, and confirm that the 4. VS1 and VS2 - Pull gently on each SFP on the I/O modules and (if present) Fibre Channel switches, to confirm that the SFPs are secure. 5. Verify each cable connection by pressing the cable connector into its port or receptacle. Check the AC power cable connections closely, and confirm that any wire cable bales are positioned as shown in the following figure. 13.Verify the LED status on each SPS: NOTE: The On-Battery LED stays on while the SPS units fully charge (which could be a few minutes or a few hours). From transit/storage environment Time required To nominal computer room environment Above 75o F (24o C) 4 hours 68o F to 72o F (20o C to 22o C) 68o F to 72o F (20o C to 22o C)None 40o F to 65o F (4o C to 18o C) 4 hours Below 40o F (4o C)8 hours Damp/high humidity 16 hours Air conditioned, low humidity

数据存储的四种常见方式

数据存储的四种常见方式 数据存储,它的概念为数据在交流过程的情况下发生的临时数据以及加工的操作的进程里面要进行查找的讯息,一般的存储介质包含有磁盘以及磁带。数据存取的方法和数据文件组织紧紧的相连,它的最主要的就是创立记录逻辑和物理顺序的两者之间的互相对应的联系,进行存储地址的肯定,从而使得数据进行存取的速度得到提升。进行存储介质的方法因为使用的存储介质不一样采用的方法也不一样,当磁带上面的数据只是按照次序来进行存取的时候;在磁盘上面就能够根据使用的需求使用顺序或者是直接存取的方法。 ●在线存储(Online storage):有时也称为二级存储。这种存储方式的好处是读写非常方 便迅捷,缺点是相对较贵并且容易因为误操作或者防病毒软件的误删除而使数据受到损害。这种存储方式提供最好的数据获取便利性,大磁盘阵列是其中最典型的代表之一。 ●脱机存储(Offline storage):脱机存储用于永久或长期保存数据,而又不需要介质当前 在线或连接到存储系统上。这种存储方式指的是每次在读写数据时,必须人为的将存储介质放入存储系统。脱机存储的介质通常可以方便携带或转运,如磁带和移动硬盘。 ●近线存储(Near-line storage):也称为三级存储。自动磁带库是一个典型代表。比起在 线存储,近线存储提供的数据获取便利性相对差一些,但是价格要便宜些。近线存储由于读取速度较慢,主要用于归档较不常用的数据。 ●异站保护(Off-site vault):这种存储方式保证即使站内数据丢失,其他站点仍有数据副 本。为了防止可能影响到整个站点的问题,许多人选择将重要的数据发送到其他站点来作为灾难恢复计划。异站保护可防止由自然灾害、人为错误或系统崩溃造成的数据丢失。

四大传统存储方式利弊一览

数据存放问题非常重要,然而在实际应用中却是错事连连。经常会出现掉盘、卷锁死等诸多问题,严重影响了整体系统的正常使用,所以数据专用存储已经成为市场上最关注的安防产品之一。 数据传统存储方式 在目前的数字领域中,最常用的无非是如下四种存储方式:硬盘、DAS、NAS、SAN。 1.硬盘 无论是DVR、DVS后挂硬盘还是服务器后面直接连接扩展柜的方式,都是采用硬盘进行存储方式。应该说采用硬盘方式进行的存储,并不能算作严格意义上的存储系统。其原因有以下几点: 第一,其一般不具备RAID系统,对于硬盘上的数据没有进行冗余保护,即使有也是通过主机端的RAID卡或者软RAID实现。严重的影响整体性能; 第二,其扩展能力极为有限,当录像时间超过60天时,往往不能满足录像时间的存储需求; 第三,无法实现数据集中存储,后期维护成本较高,特别是在DVS后挂硬盘的方式,其维护成本往往在一年之内就超过了购置成本。 应该说硬盘存储方式不适合大型数字视频监控系统的应用。特别是需要长时间录像的数字视频监控系统。一般这种方式都是与其它存储方式并存于同一系统中,作为其他存储方式的缓冲或应急替代。 2.DAS(直接附加存储) DAS(Direct Attached Storage),全称为直接连接附加存储,采用DAS的方式可以很简单的实现平台的容量扩容,同时对数据可以提供多种RAlD级别的保护。 采用DAS方式时。在视频存储单元上部署相关的HBA卡。用于跟后端的存储设备建立数据通道。前端的视频存储单元可以是DVR,也可以是视频存储服务器。其通道可以采用光纤、IP网线、SAS线缆甚至于USB、1394线等。 采用DAS方式并不能同时支持很多视频存储服务单元同时接入,而且其扩容能力严重依赖所选择的存储设备自身的扩容能力。所以在大型数字视频监控系统中,应用DAS存储方式将造成系统维护难度的极大提升。 正是由于DAS存储的这些特点,所以这种存储方式一般应用于对于DVR的扩容或者小型数字视频监控项目中。

数据存储方式

数据存储的几种方式: 总体的来讲,数据存储方式有三种:一个是文件,一个是数据库,另一个则是网络。其中文件和数据库可能用的稍多一些,文件用起来较为方便,程序可以自己定义格式;数据库用起稍烦锁一些,但它有它的优点,比如在海量数据时性能优越,有查询功能,可以加密,可以加锁,可以跨应用,跨平台等等;网络,则用于比较重要的事情,比如科研,勘探,航空等实时采集到的数据需要马上通过网络传输到数据处理中心进行存储并进行处理。对于Android平台来讲,它的存储方式也不外乎这几种,按方式总体来分,也是文件,数据库和网络。但从开发者的角度来讲它可以分为以下五种方式: 1.SharedPreferences共享偏好2.Internal Storage内部存储空间3.External Storage外部存储空间4.SQLite Database数据库5.Internet网络这几种方式各自有各自的优点和缺点,要根据不同的实际情况来选择,而无法给出统一的标准。下面就各种方式谈谈它们的优缺点,以及最合适的使用情况:1.Shared Preferences共享偏好SharedPreferences是用来存储一些Key/Value类似的成对的基本数据类型,注意,它只能存储基本数据类型,也即int, long, boolean, String, float。事实上它完全相当于一个HashMap,唯一不同的就是HashMap中的Value可以是任何对象,而SharedPreferences中的值只能存储基本数据类型(primitive types)。对于它的使用方法,可以参考Android Developer Guide,这里不重复。如此来看,最适合SharedPreferences的地方就是保存配置信息,因为很多配置信息都是Key/Value。事实上,在Android当中SharedPreferences使用最多的地方也是用来保存配置(Settings)信息,系统中的Settings中这样,各个应用中的Settings也是这样。并且,Android中为了方便的使用SharedPreferences 保存配置信息,它来专门有PreferenceActivity用来封装。也就是说如果你想在应用程序中创建配置(Settings),你可以直接使用PreferenceActivity和一些相关的专门为Preference封装的组件,而不用再直接去创建,读取和保存SharedPreference,Framework中的这些组件会为你做这些事。再谈谈一些使用SharedPreference时的技巧,它只能保存基本数据类型,但假如我想保存一个数组,怎么办?可以把数据进行处理,把它转化成一个String,取出的时候再还原就好了;再如,如想保存一个对象,怎么办,同样,可以把对象序列化成为字符序列,或转成String(Object.toString()),或是把它的HashCode(Object.hashCode())当成Value 保存进去。总之,SharedPreferences使用起来十分的方便,可以灵活应用,因为它简单方便,所以能用它就尽量不要用文件或是数据库。 1.Internal Storage内部存储空间所谓的内部存储与外部存储,是指是否是手机内置。手机内置的存储空间,称为内部存储,它是手机一旦出厂就无法改变,它也是手机的硬件指标之一,通常来讲手机内置存储空间越大意味着手机价格会越贵(很多地方把它称为手机内存,但我们做软件的知道,这并不准确,内存是指手机运行时存储程序,数据和指令的地方;这里应该是手机内部存储的简称为内存,而并非严格意义上的内存)。内部存储空间十分有限,因而显得可贵,所以我们要尽可能避免使用;另外,它也是系统本身和系统应用程序主要的数据存储所在地,一旦内部存储空间耗尽,手机也就无法使用了。所以对于内部存储空间,我们要尽量避免使用。上面所谈到的Shared Preferences和下面要谈到的SQLite数据库也都是存储在内部存储空间上的。Android本身来讲是一个Linux操作系统,所以它的内部存储空间,对于应用程序和用户来讲就是“/data/data"目录。它与其他的(外部的存储)相比有着比较稳定,存储方便,操作简单,更加安全(因为可以控制访问权限)等优点。而它唯一的缺点就是它比较有限,比较可贵。虽然,可以非常容易的知道程序本身的数据所在路径,所有的应用程序的数据路径都是“/data/data/app-package-name/”,所有的程序用到的数据,比如libs库,SharedPreferences

相关主题