搜档网
当前位置:搜档网 › 安装Linux高性能计算集群

安装Linux高性能计算集群

安装Linux高性能计算集群
安装Linux高性能计算集群

安装Linux高性能计算集群

By Christopher Stanton, Rizwan Ali, Yung-Chin Fang, and Munira A. Hussain (Issue 4 2001)

将一个新实施集群框架迁移到可用的高性能计算集群的第一个挑战就是像第三方软件包一样安装操作系统。在4到8个点的集群中,可以手动的安装每一个节点。但是,较大规模的,工业化的集群要求更有效的方法。本文描述了不同类型的集群配置,高效的Linux安装方法。和每一种方法的好处。

--------------------------------------------------------------------------------

高性能计算集群的主节点和计算节点的配置使用三种主要的类型:松散结合型、适度结合型、和紧密结合型。每一个配置描述计算节点与主节点的依存关系(参见图一)。尽管所有三种类型都要求主节点的可用性来保证任务的运行,但是主节点状态对计算节点的可用性并不是必须的。

图一:主集群的计算节点配置

从操作系统的视点来看,在松散结合型集群中计算节点是完全自主的机器。每节点都有一份操作系统(OS)的拷贝,这个操作系统允许任何人引导系统并登录节点而不需要与与主节点联系――除非网络使用动态Internet协议(IP)地址。获得动态IP地址失败不会抑制一个节点的成功启动,但是它会只能通过本地控制台访问。

集群适度的结合将计算节点跟紧密的与主节点结合。在这配置,计算节点的引导过程中需要主节点的介入,在最简模式,程序和信息需要在引导过程中定位主节点。一旦计算节点已经从主节点接收到所有需要的文件系统,他就会作为独立的机器运转并可以通过所有被定位的文件系统登录。

紧密结合型系统对主节点的依靠更深入一步。计算节点必须通过网络从主节点上加载操作系统。在紧密结合型集群中的计算节点不在本地存储文件系统,除此以外可能会有交换(swap)或临时(tmp)文件系统。从操作系统的视点出发,在计算节点和柱节点之间没有太大的差别。确实不存在独立登陆计算节点的能力。处理空间是平衡的所以集群看起来更像一个大的单片机而不像一个有小型的计算机组成的基群。

以下的章节解释了建设和安装理想类型集群的可以使用应用和方法。每一种配置都具有独特的优势和缺陷,并且讨论和研究了哪一种配置最能适用于特别的需要。

安装松散结合型集群

在松散结合型集群中,每一个计算节点都有一份操作系统的本地拷贝。最单调和令人厌烦的工作就是每次都使用CD进行安装。自动安装松散型集群的方法包括:

Kickstart文件

The Red Hat& Kickstart的安装方式是让用户创建一个单一的简单的文本文件来让Red Hat Linux许多的安装操作诸如语言选择、网络配置、键盘选择、引导文件加载器的安装(例如Linux Loader(LILO)或GRand Unified Bootloader(GRUB))、磁盘分区、鼠标选择、和X Windows 的配置。Kickstart文件包含三个部分:命令、软件包列表、和脚本。

命令. 命令部分包含所有安装选项例如语言和分区特征、网络配置、和安装方法。例如,管理员可以使用网络配置选项来指定节点的IP地址、主机名称、和网关。

Packages.以%packages命令为起始的Kickstart文件部分显示需要安装的软件包的类表。可以将一个组成部分的名称(对于一组相关的包)或独立的软件包名称列入清单。

在Red Hat Linux 光盘(Redhat/base/comps)上的一个comps文件显示了一些预定义的组件。用户也可以建立他们自己的构架和所需要的软件包列表。(注意:为建立一个构架,用户必须建立一个新的含有国际标准化组织的带有他们自己修改过的comps文件的标准化(ISO)镜像CD-ROM。)文件的第一个组成部分显示的是Linux运行所必需的软件包的基本的组成部分。

脚本.管理员可以在Kickstart文件中使用'安装后执行'命令来安装没有包含在CD-ROM中或更进一步协调的软件包,组如定制的主机文件或允许SSH(安全外壳)。

安装后执行的部分通常在Kickstart文件的结尾部分,并且以%post命令开始。要增加的软件包必须是可以从服务器或者网络上可以获得的,通常是在主节点上。%post部分看起来如图2中所示。这些例子命令将从IP地址为10.180.0.2的服务器上安装名为my_driver.rpm的rpm 包。

图二:Kickstart文件安装后执行命令

Red Hat 7.1包括一个Kickstart配置工具,一个图形化用户界面(GUI)的工具用来建立Kickstart 文件(代替键入操作)。在选择Kickstart操作之后,用户可以点击保存文件按钮来生成kickstart 文件。配置工具允许用户来选择更多的Kickstat文件需要的操作并为那些需要改变通常的文件来满足他们需要的专业用户提供更多的选择。

Kickstart安装方法

Kickstart文件中的安装方法命令让管理员定制安装方法:使用本地CD-ROM或本地磁盘,或通过网络文件系统(NFS),文件传输协议(FTP),或超文本传输协议(HTTP)。最麻烦的事情就是为每个节点创建Kickstart文件并将文件保存到Red Hat安装引导软盘上。当系统从软盘引导时(Red Hat Linux CD必须在CD-ROM中,并且Kickstart文件必须指定从CD-ROM进行安装),安装进程自动基于软盘上的Kickstart文件所制定的特备选项开始运行。每一个节点拥有不同的网络设置(IP地址和主机名)并且显然需要分别放置在不同的盘上。这种方式对于大规模的集群安装是荣誉乏味的:它要求手动干涉将软盘和CD从一个节点到另一个节点,除非你拥有很大数量的软盘和CD可以在所有节点上同时进行安装。

更有效的方法是通过网络执行安装。同样的,每一个节点必须有自己的软盘,但是不再需要CD。Kickstart文件的'安装方法'部分需要更改为支持FTP或NFS安装。一旦Red Hat使用Kickstart文件引导进行安装,它就会从特定的网络服务器上接收安装镜像文件(通常是主节点)。

在最经常使用的安装方式中,管理员将Kickstart文件与CD镜像文件一起放置在网络中。引导协议/动态主机配置协议(BOOTP/DHCP)服务器和NFS服务器比选安置于本地网络中,通常在集群的主节点中。BOOTP/DHCP服务器必须包含所有要在集群中安装的设备的配置信息。BOOTP/DHCP服务器向网络客户提供网络信息,就象安装引导核心的位置和虚拟磁盘以及Kickstart文件的可能的位置。如果Kickstart文件的位置没有被提供,安装程序会尝试着去读取/kickstart/1.2.3.4-kickstart文件,其中1.2.3.4是在DHCP服务器中被安装设备的IP地址。最终,NFS客户端mount文件路径,拷贝特定的文件到本地硬盘上,并像在Kickstart文件中描述的一样开始对机器进行安装。

使用系统镜像器(Systemlmager)安装集群

是远程系统复制和维护系统,用来减少创建集群中自主系统的重复的步骤。系统镜像器要求管理员在克隆剩余的计算节点前来安装和配置一个样本计算节点。这种方式的一个先进之处就是在安装过程中,管理员不需要写特殊的脚本来安装附加的软件包或配置系统设置。

在系统镜像器方式中,将要被作为源或者样本系统使用的计算节点被称为'黄金客户端'。管理员必须使用传统的方法首先安装和配置所以它对所有计算节点具有代表性。

系统镜像器,是一个安装在主节点的,然后使用getimage命令创建整个黄金客户端机器的系统镜像。这个镜像只包含远程设备的文件而不包含整个分区的镜像,这样可以节约空间。prepareclient命令建立一个分区信息表和被mount的文件系统的列表。这允许分区被建成具有相同数量的mount点和尺寸。

主节点现在包含用来创建黄金客户端副本的信息(参见图3)。在对计算节点的安装过程中,addclient命令允许管理员调整每一个节点系统特定的配置信息。Addclient命令提示主机名基本信息和范围、客户镜像、和IP地址。基本信息表现了主机名的静态部分,范围表现了附加主机名的开始和结束数值。例如,将node作为基本信息并且1-3作为范围,那么安装路由将建立node1,node2,node3。

图三:系统镜像器安装方法

当名称转换完成之后,管理员被提示指派安装镜像和IP地址到到这些机器上。主机名和相关的IP地址被加入主机名称列表中,并在安装和引导时被使用。

依赖于在主节点上完成这些步骤之后,必须对计算节点选择引导方法引导方法。系统镜像器核心和虚拟磁盘可以从便携介质诸如软盘和CD-ROM(分别通过makeautoinstallflopy或makeautoinsyalled命令创建)引导。另外,核心和虚拟磁盘可以通过预引导执行环境(PXE)进行网络引导。

信筒镜像器包含对Linux PXE 服务器(PXELinux)预建配置文件,该文件必须运行于主节点上。PXE来说是一种简单的协议,该协议允许计算节点与BOOTP/DHCP服务器联系。BOOTP (和DHCP,对BOOTP的扩展)允许服务器提供一个客户端――通过硬件介质控制(MAC)地址识别――许多初始配置信息例如IP地址、子网掩码、广播地址、网络地址、网关地址、主机名、以及核心和虚拟磁盘下载路径。

一旦节点被引导,它必须重新获得他的IP地址和主机名称。这种操作是通过在主节点上的DHCP服务器指派所有的值或通过安置所有的值在每一个节点的引导软盘上。系统镜像器提供一个DHCP配置-创建协议,makedhcpserver,这些会联系映射主机名和IP地址的DHCP 配置文件。Makedhcpstatic命令会创建一个在机器和主机名/IP地址对之间的静态映射。

通过系统镜像器维护集群

系统管理员也可以使用黄金客户镜像作为一个主管日志和一个单一的管理点来实施集群范围内的修改――从一个文件到一个整体的软件包。首先集群管理员在黄金客户端上做需要的修改。然后,管理员可以从集群的基础中更新现在正在使用的镜像或创建一个新的镜像。

这种方法允许管理员在更该中断集群时来建立版本的历史记录。一旦一个新的镜像被建立,剩余的计算节点被这种改变同步。这通常需要最小的时间,因为只有被修改的文件被拷贝到每一个节点上。如果这种改变确实破坏了集群,它可以从较早已知可以正常工作的镜像中重新同步回来。

安装适度结合型的集群

在一个适度结合型集群中,每一个计算节点可以被作为一个独立的机器来访问,但是每一个节点并不具有操作系统的本地拷贝。管理员可以使用不同的方法来安装适度结合型的系统。下面的章节描述了两种通常的方法:混合模式(存储在本地的临时数据)和完全磁盘无关模式(计算节点没有硬盘驱动器)。所有的方法都使用中心服务器来存储和加载操作系统和其他系统信息。

从网络中引导

计算节点需要通过网络重新更新许多必要的操作系统组件。第一必须可以通过网络引导,需要计算节点支持网络引导协议,例如PXE。所以节点可以联系BOOTP/DHCP服务器来获得配置信息。

每次一个节点引导,它被分配他的网络信息并被给与一个路径指明通过TFTP协议从哪里下载Linux核心和虚拟磁盘。尽管核心和虚拟磁盘可以被定位在同一个作为BOOTP/DHCP服务器的服务器上,但并不是必须的。这个核心必须支持初始化虚拟磁盘这是因为整个root文件系统会被定位在虚拟磁盘上。这允许节点在没有对NFS进行mount时进行引导。

为使用虚拟磁盘作为本地跟文件系统,需要作一些必要的修改。当核心和虚拟磁盘被记载到内存中,核心mount虚拟磁盘作为可读写文件系统。然后他搜寻/linuxrc文件(二进制执行文件或一个以#!开始的脚本)。在这个文件运行完成后,核心umount虚拟磁盘并从磁盘上mount一个传统的根文件系统。因为根文件系统并不存在于本地的的硬盘上,/linuxrc文件必须链接到/sbin/Init。

所以操作系统在这个点上直接运行,这两种方法的实施过程是分离的。

混合模式. 在hybird模式中,更新的可引导核心为本地存储检查已经存在的swap,var,和tmp 分区并登录。如果当前设置的分区不包含在本地的介质中,他们被建立和挂接(mount)。混合模式削减了网络负载,存储日志在静态存储设备上,并提供swap空间用于内存交换。存储静态日志允许swap在引导过程中记录日志。

磁盘无关模式. 磁盘无关模式使用定位于任意初始化虚拟磁盘上的var和tmp目录,另外的虚拟磁盘稍后进行下载,或者使用nfs-mounted目录。使用NFS-mounted的var目录通过集群范围内的日志文件提供一个单一的点,并且日志不会因为重新启动而丢失。这种好处可以方便的进行管理:在NFS输出(NFSexporting)设备上运行本地应用允许日志监视如同精简日志报告一样。因为没有本地磁盘存在,内存交换必须通过NFS进行或者根本不需要交换。

内存交换是十分重要的,这是因为如果一个应用的执行需要很大的内存量,程序会发生拥塞或者操作系统会被挂起。尽管内存可以通过网络在非本地硬盘上进行交换,这种操作会严重的损环集群性能。由于这种原因,如果一个需要未知内存数量的任务将在集群中运行,不推荐使用磁盘无关节点。

中等结合度集群所提供的管理优势

在这两种方法中,在最终的目录通过网络或本地驱动器被挂接(mount)后,计算节点会被完全的引导并准备接受任务。从一个外部作为集群的视点,每一个节点作为一个独立的机器运行。

从管理的视点来说,升级每一个计算节点是十分简单的。因为只有一个计算节点的镜像存在,管理员只需要升级一个镜像而不是所有的结点都需要修改或升级就可以使NFS共享目录立即生效。如果改变涉及到需要下载的节点核心,虚拟磁盘,或其他操作系统的片段,管理员必须重新引导每一台机器使更该生效。

紧密结合型集群消除差别

紧密结合型集群试图消除计算节点和集群之间的差别。用户只能看到主节点,这看起来很像一个并行计算机群体。计算节点只是主节点的简单的扩展并且是纯粹的处理平台。ScyldBeowulf ?系统就是创建这种集群。

实施Scyld Beowulf

Scyld是通用的软件包,可以提供一个简单方便的安装、管理、和维护Beowulf 集群的方法。一个计算节点集从主节点被管理和控制。这种集群和传统集群Beowulf的差异是因为集群运转必须像一个单一的、高能力的并行计算机。计算节点是纯粹的不提供登录外壳的计算节点。系统工具被修改所以管理员可以从主节点上查看整个处理空间,类似于对在独立的机器上的本地处理空间所看到的。

安装主节点是从Scyld Beowulf CD开始的,这是Red Hat Linux 6.2的修改版本。这种修改包括增加集群管理和控制应用、信息传递库、和为计算节点所修改的核心。一旦主节点从CD

上安装完成,管理员可以选择从个新的计算节点上安装的方法。一个计算节点安装传送必要的核心,虚拟磁盘,和库,这些分成两步执行。

第一步. 许多介质可以传送第一步的核心和虚拟磁盘到计算节点上:软盘、CD-ROM、基本输入输出系统(BIOS)、硬盘、或者使用诸如PXE的网络引导协议通过网络传输。前四个只要求可引导核心定位于被选择的设备上。从网络引导要求对主节点进行修改。主节点会需要安装和配置一个TFTP服务器和一个DHCP服务器。当一个计算节点第一次被引导,它会收到一个IP地址和通过TFPT协议从什么地方下载第一步所需的核心和虚拟磁盘的定位信息。一旦节点被引导到第一步,它就准备好计入集群。

第一步将计算节点放置在一个循环中,这个循环通过反向地址解析协议(RARP)重复的广播它的MAC地址来表示它是可以使用的。在主节点上,Scyld系统的一个后台进程将探测这种活动并将MAC地址加入到未知设备列表中。一个称为beosetup的图形应用允许管理员将该设备从未知设备迁移到计算节点列表中。计算节点基于他们加入计算节点列表的顺序而被指派一个节点识别符号。

第二步. 这一步在机器被加入到计算节点列表中后开始。主节点首先通过TCP/IP联接传送第二步核心到被选中的计算节点上。当前运行的第一步核心通过双核心转换(monte)技术切换到第二步核心。

在这个核心完成引导之后,它下载所有的需要的共享库,挂接(mount)输出文件系统、下载并开始两个用户进程beostats和beoslave。这些用户进程允许分别的进行节点统计表的传送(例如加载和内存压缩)到主节点和从主节点上对进程进行进程迁移。在计算节点上永远不需要登录控制台,所以所有的控制和监视集中在主节点和通过这两个用户进程的通讯上。

紧密结合型及群的优势和缺点

必须注意到没有信息被永久的存储在计算节点上。如果需要的话,Scyld系统允许创建完整的磁盘无关型计算节点但也提供系统的本地安装能力,例如第一步和第二步以及交换空间(更像中等结合度的方法)。从用户到管理员的角度,集群都是一个很大的机器,这是这种Beowulf集群的主要先进性。紧密完整的的集群管理和集群应用套件提供统一的管理工具集,这可以降低时间需求和协调问题。

不幸的是,这种集群类型也具有和中等结合度集群的某些缺点并且将集群捆绑到一个单一的软件供应商来实现整个解决方案。

平衡管理难度和系统信能

给与集群的配置方法的选择应该基于用户的需要。随着集群结合程度的增加,对于集群管理的负担逐步降低。不幸的是,这种方法会相反的影响系统的性能,这是因为通过网络管理削减了可使用的网络带宽。在结合度非常紧密的集群中,因为集群设计的先天特点,许多通常的应用和功能会操作失败。

Christopher Stanton (christopher_stanton@https://www.sodocs.net/doc/e19184696.html,) 是Dell的可扩展系统工作组的高级系统工程师。他的HPC集群相关目标包括集群安装、管理和性能基准测试。Christopher毕业于

位于奥斯汀的德州大学,并获得计算机B.S.证书和特别荣誉称号。

Rizwan Ali (rizwan_ali@https://www.sodocs.net/doc/e19184696.html,) 是Dell的可扩展系统工作组的系统工程师。他现在的研究目标是性能基准测试和高速内部连接。Rizwan获得了明尼苏达大学的电子工程B.S证书。

Yung-Chin Fang (Yung-Chin_fang@https://www.sodocs.net/doc/e19184696.html,) 是Dell的可扩展系统工作组的成员。Yung-Chin拥有尤它州立大学计算机科学M.S证书。他现在工作于休斯敦大学的计算机科学的Ph.D。

Munira A. Hussain (munira_hussain@https://www.sodocs.net/doc/e19184696.html,) 是Dell的可扩展系统工作组的系统工程师。她在Urbana-Champaign的伊利诺斯大学获得了她的电气工程.附加的计算机科学B.S 证书

更多信息

Kickstart:

https://www.sodocs.net/doc/e19184696.html,/docs/manuals/linux/ RHL-7.1-Manual/custom-guide/ch-kickstart2.html

SystemImager:

https://www.sodocs.net/doc/e19184696.html,

Scyld:

https://www.sodocs.net/doc/e19184696.html,

高性能计算集群(HPC CLUSTER)

高性能计算集群(HPC CLUSTER) 1.1什么是高性能计算集群? 简单的说,高性能计算(High-Performance Computing)是计算机科学的一个分支,它致力于开发超级计算机,研究并行算法和开发相关软件。 高性能集群主要用于处理复杂的计算问题,应用在需要大规模科学计算的环境中,如天气预报、石油勘探与油藏模拟、分子模拟、基因测序等。高性能集群上运行的应用程序一般使用并行算法,把一个大的普通问题根据一定的规则分为许多小的子问题,在集群内的不同节点上进行计算,而这些小问题的处理结果,经过处理可合并为原问题的最终结果。由于这些小问题的计算一般是可以并行完成的,从而可以缩短问题的处理时间。 高性能集群在计算过程中,各节点是协同工作的,它们分别处理大问题的一部分,并在处理中根据需要进行数据交换,各节点的处理结果都是最终结果的一部分。高性能集群的处理能力与集群的规模成正比,是集群内各节点处理能力之和,但这种集群一般没有高可用性。 1.2 高性能计算分类 高性能计算的分类方法很多。这里从并行任务间的关系角度来对高性能计算分类。 1.2.1 高吞吐计算(High-throughput Computing) 有一类高性能计算,可以把它分成若干可以并行的子任务,而且各个子任务彼此间没有什么关联。因为这种类型应用的一个共同特征是在海量数据上搜索某些特定模式,所以把这类计算称为高吞吐计算。所谓的Internet计算都属于这一类。按照Flynn的分类,高吞吐计算属于SIMD(Single Instruction/Multiple Data,单指令流-多数据流)的范畴。 1.2.2 分布计算(Distributed Computing) 另一类计算刚好和高吞吐计算相反,它们虽然可以给分成若干并行的子任务,但是子任务间联系很紧密,需要大量的数据交换。按照Flynn的分类,分布式的高性能计算属于MIMD (Multiple Instruction/Multiple Data,多指令流-多数据流)的范畴。 1.3高性能计算集群系统的特点 可以采用现成的通用硬件设备或特殊应用的硬件设备,研制周期短; 可实现单一系统映像,即操作控制、IP登录点、文件结构、存储空间、I/O空间、作业管理系统等等的单一化; 高性能(因为CPU处理能力与磁盘均衡分布,用高速网络连接后具有并行吞吐能力); 高可用性,本身互为冗余节点,能够为用户提供不间断的服务,由于系统中包括了多个结点,当一个结点出现故障的时候,整个系统仍然能够继续为用户提供服务; 高可扩展性,在集群系统中可以动态地加入新的服务器和删除需要淘汰的服务器,从而能够最大限度地扩展系统以满足不断增长的应用的需要; 安全性,天然的防火墙; 资源可充分利用,集群系统的每个结点都是相对独立的机器,当这些机器不提供服务或者不需要使用的时候,仍然能够被充分利用。而大型主机上更新下来的配件就难以被重新利用了。 具有极高的性能价格比,和传统的大型主机相比,具有很大的价格优势; 1.4 Linux高性能集群系统 当论及Linux高性能集群时,许多人的第一反映就是Beowulf。起初,Beowulf只是一个著名的科学计算集群系统。以后的很多集群都采用Beowulf类似的架构,所以,实际上,现在Beowulf已经成为一类广为接受的高性能集群的类型。尽管名称各异,很多集群系统都是Beowulf集群的衍生物。当然也存在有别于Beowulf的集群系统,COW和Mosix就是另两类著名的集群系统。 1.4.1 Beowulf集群 简单的说,Beowulf是一种能够将多台计算机用于并行计算的体系结构。通常Beowulf系统由通过以太网或其他网络连接的多个计算节点和管理节点构成。管理节点控制整个集群系统,同时为计算节点提供文件服务和对外的网络连接。它使用的是常见的硬件设备,象普通PC、以太网卡和集线器。它很少使用特别定制的硬件和特殊的设备。Beowulf集群的软件也是随处可见的,象Linux、PVM和MPI。 1.4.2 COW集群 象Beowulf一样,COW(Cluster Of Workstation)也是由最常见的硬件设备和软件系统搭建而成。通常也是由一个控制节点和多个计算节点构成。

最新高性能计算平台设计方案模板

XXXX 高性能计算平台建设方案 XXXXX 2013年4月

目录 1 概述 (2) 1.1 背景概况 (2) 1.2 建设内容 (3) 1.3 设计原则 (3) 2 总体架构 (5) 3 高性能计算平台硬件系统 (6) 3.1 平台架构图 (6) 3.2 主要设备选型 (8) 3.3 Cluster集群系统 (9) 3.4 计算节点 (10) 3.5 管理节点 (10) 3.6 I/O存储节点 (11) 3.7 网络系统方案............................................................................... 错误!未定义书签。 3.8 管理网络 (12) 3.9 监控网络 (12) 3.10 存储系统 (12) 4 高性能计算平台软件系统 (13) 4.1 64位Linux操作系统 (13) 4.2 集群管理软件 (14) 4.3 作业调度系统 (14) 4.4 并行文件系统 (15) 4.5 集群并行计算环境 (15) 4.6 标准库函数 (16) 4.7 标准应用软件 (16) 5 项目经费预算 (17) 5.1 经费来源 (17) 5.2 经费支出预算 (17) 附页——高性能计算平台技术参数要求 (18)

1概述 1.1背景概况 20世纪后半期,全世界范围掀起第三次产业革命的浪潮,人类开始迈入后 工业社会——信息社会。在信息经济时代,其先进生产力及科技发展的标志就是 计算技术。在这种先进生产力中高性能计算机(超级计算机)更是具有代表性。 时至今日,计算科学(尤其是高性能计算)已经与理论研究、实验科学相并列,成为现代科学的三大支柱之一。 三种科研手段中,理论研究为人类认识自然界、发展科技提供指导,但科学 理论一般并不直接转化为实用的技术;实验科学一方面是验证理论、发展理论的重要工具,另一方面,它是在理论的指导下发展实用技术,直接为经济发展服务;计算科学的发展也有相当悠久的历史,只是在计算机这一强大的计算工具问世之前,计算只能利用人类的大脑和简单的工具,计算应用于科学研究有天然的局限性,限制了它作用的发挥;随着计算机技术的发展,使用科学计算这一先进的技术手段不断普及,逐渐走向成熟。科学计算可以在很大程度上代替实验科学,并能在很多情况下,完成实验科学所无法完成的研究工作。科学计算也直接服务于实用科技,并为理论的发展提供依据和机会。在许多情况下,或者理论模型过于复杂甚至尚未建立,或者实验费用过于昂贵甚至不允许进行,此时计算模拟就成为求解问题的唯一或主要手段了。 目前,高性能计算已广泛应用于国民经济各领域,发挥着不可替代的重要作用: a) 基础学科中深入的知识发现,问题规模的扩大和求解精度的增加需要更 高性能的计算资源。例如,计算立体力学、计算材料学、计算电磁学。 b) 多学科综合设计领域中大量多部门协同计算需要构建高性能的综合平 台。例如,汽车设计、船舶设计。 c) 基于仿真的工程科学结合传统工程领域的知识技术与高性能计算,提供 经济高效地设计与实践方法。例如,基于仿真的医学实践、数字城市模拟、核电、油田仿真工具、新材料开发、碰撞仿真技术、数字风洞。

几种常见云计算平台分析比较

云计算平台比较分析 云计算按照应用层次,主要划分为IaaS、PaaS和SaaS三种层次的应用,这里主要分析常见的IaaS平台。目前市面上常见的IaaS应用主要有Amazon的AWS,基本上已经成为整个行业的标准。 IaaS在开源领域也是百花齐放,最著名的开源平台为:Eucalyptus、Openstack和Cloudstack、Opennebula、Nimbus,在国内社区比较火热的主要是前三种,所以在这里主要分析一下前三种平台。 1.云平台分析 1.1.Eucalyptus 1.1.1.概述 Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems(Eucalyptus)是一种开源的软件基础结构,用来通过计算集群或工作站群实现弹性的、实用的云计算。它最初是美国加利福尼亚大学Santa Barbara计算机科学学院的一个研究项目,现在已经商业化,发展成为了Eucalyptus Systems Inc。不过,Eucalyptus 仍然按开源项目那样维护和开发。Eucalyptus Systems 还在基于开源的 Eucalyptus 构建额外的产品;它还提供支持服务。 Eucalyptus是在2008年5月发布1.0版本,在2009年与Ubuntu进行合作,成为Ubuntu server9.04的一个重要特性,目前最新版本是2.0.3,可以选择Xen、KVM作为虚拟化管理程序,对vSphere ESX/ESXi提供了支持。 Eucalyptus主要是用C和Java开发的,其中CLC是由java完成的,Tools 是由perl完成的,其他的都是C完成的。

高可用性集群系统的实现

高可用性集群系统的实现 《Linux企业应用案例精解》第8章主要介绍一下虚拟化技术应用。本节为大家介绍高可用性集群系统的实现。 8.3.5 高可用性集群系统的实现(1) VMware Infrastructure 的体系结构和典型配置 资源动态分配和高可用性的实现为构建高可用性集群系统提供了有力的保障,采用VMwae构建铁路企业高可用性集群,不需要为系统中的每台服务器分别添置备用服务器,就可以有效地降低系统成本,在基于VMware的我企业高可用性集群中,备用服务器安装了VMware ESX Server,与数据库服务器、Web服务器、OA服务器和文件服务器等构成高可用性集群,同时采用数据库备份服务器实现差额计划备份。 使用VMware提供的虚拟基础架构解决方案,服务器不再需要随着业务增加而添加,整个IT基础架构能得到有效控制并可充分发挥效能。只有当整体资源出现不足的时候,才需要增加服务器。而且对系统资源的

添加也非常简单,不再需要做繁琐的硬件维护以及业务迁移,只需要简单地将新服务器安装VMWARE? INFRASTRUCTURE 3软件,并添加到已有的VMWARE? INFRASTRUCTURE 3架构中即可,新增资源将自动分配到各个最需要的业务环境中。 在HA和DRS功能的共同支撑下,虚拟机的稳定、不间断运行得到了保证,而且,在没有搭建Cluster环境的情况下,迁移、升级依旧能不中断服务。哪怕是硬件升级、添加,正常停机维护等情况,也能够保证所有的业务正常运行,客户端访问服务器不产生业务中断现象。新的服务器虚拟化架构中另一个重点是VMware HA 的部署,它是整个服务器系统安全、可靠运行的一道防线。传统的热备机方式最大的问题就是容易造成资源的大量闲置;在正常运行状态下,所有备机服务器都处于闲置状态,不仅造成计算资源的空耗,而且还浪费大量的电力和散热资源,投资回报率非常低。 如何应对Linux系统软件包的依赖性问题 不管是初步跨入Linux殿堂的新手还是,具有多年经验的专家,在安装或编译软件包的过程中或多或少的都会遇到包的依赖问题从而导致安装过程无法继续,比如管理员在安装php软件包需要libgd.so文件,而这个文件属于gb软件包。但是在安装gb软件包时,可能这个软件包跟其他软件包又具有依赖关系,又需要安装其他软件包才行。这时有的管理员便失去耐心。在遇到这种Linux软件包依赖关系问题,该如何解决呢?在谈这个具体的措施之前,先跟大家聊聊Linux系统里的软件爱你依赖性问题。 我们把处理rpm依赖性故障的策略可以分成两类解决依赖性故障的自动方法和手工方法。但当安装不属于发行一部分的软件包时自动方法是不可用的。在描述如何手工解决依赖性故障后,将简要描述如何使用自动方法之一(YUM),但首先需要了解它们是什么及rpm如何强制实施它们。 一、什么是依赖性 程序依赖于程序代码的共享库,以便它们可以发出系统调用将输出发送到设备或打开文件等(共享库存在于许多方面,而不只局限于系统调用)。没有共享库,每次程序员开发一个新的程序,每个程序员都需要从头开始重写这些基本的系统操作。当编译程序时,程序员将他的代码链接到这些库。如果链接是静态的,编译后的共享库对象代码就添加到程序执行文件中;如果是动态的,编译后的共享库对象代码只在运行时需要它时由程序员加载。动态可执行文件依赖于正确的共享库或共享对象来进行操作。RPM依赖性尝试在安装时强制实施动态可执行文件的共享对象需求,以便在以后--当程序运行时--不会有与动态链接过程有关的任何问题。

高性能计算集群项目采购需求

高性能计算集群项目采购需求 以下所有指标均为本项目所需设备的最小要求指标,供应商提供的产品应至少大于或等于所提出的指标。系统整体为“交钥匙”工程,厂商需确保应标方案的完备性。 投标商在投标方案中须明确项目总价和设备分项报价。数量大于“1”的同类设备,如刀片计算节点,须明确每节点单价。 硬件集成度本项目是我校校级高算平台的组成部分,供应商提供的硬件及配件要求必须与现有相关硬件设备配套。相关系统集成工作由供应商负责完成。 刀片机箱供应商根据系统结构和刀片节点数量配置,要求电源模块满配,并提供足够的冗余。配置管理模块,支持基于网络的远程管理。配置交换模块,对外提供4个千兆以太网接口,2个外部万兆上行端口,配置相应数量的56Gb InfiniBand接口 刀片计算节点双路通用刀片计算节点60个,单节点配置2个CPU,Intel Xeon E5-2690v4(2.6GHz/14c);不少于8个内存插槽,内存64GB,主频≥2400;硬盘裸容量不小于200GB,提供企业级SAS或SSD 硬盘;每节点配置≥2个千兆以太网接口,1个56Gb InfiniBand 接口;满配冗余电源及风扇。 刀片计算节点(大内存)双路通用刀片计算节点5个,单节点配置2个CPU,Intel Xeon E5-2690v4;不少于8个内存插槽,内存128GB,主频≥2400;硬盘裸容量不小于200GB,提供企业级SAS或SSD硬盘;每节点配置≥2个千兆以太网接口,1个56Gb InfiniBand接口;满配冗余电源及风扇。 GPU节点2个双路机架GPU节点;每个节点2个Intel Xeon E5-2667 v4每节点2块NVIDIA Tesla K80GPU加速卡;采用DDR4 2400MHz ECC内存,每节点内存16GB*8=128GB;每节点SSD 或SAS硬盘≥300GB;每节点配置≥2个千兆以太网接口,1个56Gb/s InfiniBand接口;满配冗余电源及风扇。 数据存储节点机架式服务器2台,单台配置2颗Intel Xeon E5-2600v4系列CPU;配置32GB内存,最大支持192GB;配置300GB 2.5" 10Krpm

高可用性集群解决方案设计HA

1.业务连续 1.1.共享存储集群 业务系统运营时,服务器、网络、应用等故障将导致业务系统无常对外提供业务,造成业务中断,将会给企业带来无法估量的损失。针对业务系统面临的运营风险,Rose提供了基于共享存储的高可用解决方案,当服务器、网络、应用发生故障时,Rose可以自动快速将业务系统切换到集群备机运行,保证整个业务系统的对外正常服务,为业务系统提供7x24连续运营的强大保障。 1.1.1.适用场景 基于共享磁盘阵列的高可用集群,以保障业务系统连续运营 硬件结构:2台主机、1台磁盘阵列

主机 备机心跳 磁盘阵列 局域网 1.1. 2.案例分析 某证券公司案例 客户需求分析 某证券公司在全国100多个城市和地区共设有40多个分公司、100多个营业部。经营围涵盖:证券经纪,证券投资咨询,与证券交易、证券投资活动有关的财务顾问,证券承销与保荐,证券自营,证券资产管理,融资融券,证券投资基金代销,金融产品代销,为期货公司提供中间介绍业务,证券投资基金托管,股票期权做市。 该证券公司的系统承担着企业的部沟通、关键信息的传达等重要角色,随着企业的业务发展,系统的压力越来越重。由于服务器为单机运行,如果发生意外宕机,将会给企业的日常工作带来不便,甚至

给企业带来重大损失。因此,急需对服务器实现高可用保护,保障服务器的7×24小时连续运营。 解决方案 经过实际的需求调研,结合客户实际应用环境,推荐采用共享存储的热备集群方案。部署热备集群前的单机环境:业务系统,后台数据库为MySQL,操作系统为RedHat6,数据存储于磁盘阵列。 在单机单柜的基础上,增加1台备用主机,即可构建基于共享存储的热备集群。增加1台物理服务器作为服务器的备机,并在备机部署系统,通过Rose共享存储热备集群产品,实现对应用的高可用保护。如主机上运行的系统出现异常故障导致宕机,比如应用服务异常、硬件设备故障,Rose将实时监测该故障,并自动将系统切换至备用主机,以保障系统的连续运营。

双机热备、集群及高可用性入门

双机热备、集群及高可用性入门

什么是双机热备? 双机热备这一概念包括了广义与狭义两种意义。 从广义上讲,就是对于重要的服务,使用两台服务器,互相备份,共同执行同一服务。当一台服务器出现故障时,可以由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续提供服务。(相关文章:为什么需要双机热备?) 双机热备由备用的服务器解决了在主服务器故障时服务不中断的问题。但在实际应用中,可能会出现多台服务器的情况,即服务器集群。(相关文章:双机软件与集群软件的异同) 双机热备一般情况下需要有共享的存储设备。但某些情况下也可以使用两台独立的服务器。(相关文章:双机热备的实现模式) 实现双机热备,需要通过专业的集群软件或双机软件。(相关文章:双机与集群软件的选择) 从狭义上讲,双机热备特指基于active/standby方式的服务器热备。服务器数据包括数据库数据同时往两台或多台服务器写,或者使用一个共享的存储设备。在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会通过软件诊测(一般是通过心跳诊断)将standby机器激活,保证应用在短时间内完全恢复正常使用。(相关文章:双机热备、双机互备与双机双工的区别) 为什么要做双机热备? 双机热备针对的是服务器的故障。 服务器的故障可能由各种原因引起,如设备故障、操作系统故障、软件系统故障等等。一般地讲,在技术人员在现场的情况下,恢复服务器正常可能需要10分钟、几小时甚至几天。从实际经验上看,除非是简单地重启服务器(可能隐患仍然存在),否则往往需要几个小时以上。而如果技术人员不在现场,则恢复服务的时间就更长了。 而对于一些重要系统而言,用户是很难忍受这样长时间的服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 决定是否使用双机热备,正确的方法是要分析一下系统的重要性以及对服务中断的容忍程度,以此决定是否使用双机热备。即,你的用户能容忍多长时间恢复服务,如果服务不能恢复会造成多大的影响。 在考虑双机热备时,需要注意,一般意义上的双机热备都会有一个切换过程,这个切换过程可能是一分钟左右。在切换过程中,服务是有可能短时间中断的。

高性能计算集群(PC Cluster)用户指南

高性能计算集群(PC Cluster)用户指南 大气科学系应越 第二版2008-12 目录 -认识cluster -使用cluster -linux常用命令 -软件 -文件传输 第一章:认识cluster 1.什么是cluster系统 cluster一般由一台主机(master)和多台节点机(node)构成,是一种松散耦合的计算节点集合。为用户提供网络服务或应用程序的单一客户视图,同时提供接近容错机的故障恢复能力。通常cluster的每台机器通过相应的硬件及软件互连,每个群集节点都是运行其自己进程的独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据。cluster概念的提出在70年代主要是为了进行一些大运算量的科学计算。随着网络的发展,之后的cluster系统还被用作网络服务器,发挥其故障恢复和均衡负载的能力。 使用PC机构建cluster的好处在于开发成本低,而且由于每台节点机都是普通的PC机,在某一台机器发生故障的时候,可以方便的进行维护,而不影响整个系统的运行。 大气科学系的cluster系统,由16台64位的PC机组成。其中一台主机(master),15台节点机(node01~node15)。这16台机器每台有两个4核的CPU,也就是说每个节点上可以同时提供8个CPU。操作系统使用的是CentOS的Linux发行版。图1为大气科学系cluster目前的结构。其中console 和c0101~c0107是大气系早期的cluster系统,节点安装的是RedHat的Linux发行版,precluster曾经作为门户机,目前已经更新为CentOS的操作系统。 登录master的IP地址为162.105.245.3,这个地址由于物理大楼的IP变动比较频繁,所以可能会时不时改变,而precluster的IP地址162.105.245.238则比较稳定。这两个地址目前都可以从校外访问。 cluster的应用主要集中在并行计算上。虽然单个节点的单CPU运算效率比普通的笔记本或是台式机都高很多,但是cluster当初被设计出来就是为了进行多CPU协同运算的,而不是仅仅为了提高单CPU的运算效率。所以我们鼓励用户在cluster上进行并行计算,而把一些单CPU也能解决的工作

计算机集群技术的解释

【赛迪网独家特稿】集群技术是使用特定的连接方式,将相对于超级计算机便宜许多的计算机设备结合起来,提供与超级计算机性能相当的并行处理技术。早在七十年代就有人提出可以使用这种集群技术完成并行处理,但是由于受到当时网络交换技术的限制,集群系统在性能上与其他并行处理系统相距甚远,直到网络技术逐渐成熟的今天,它才具备了与超级计算机相匹敌的能力。 什么是集群 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。 计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。在大多数模式下,集群中所有的节点拥有一个共同的名称,集群内的任一节点上运行的服务都可被所有的网络客户所使用。 集群的特点 1.提供强大处理能力的高性能计算机系统:计算机集群可以通过负载均衡、并行处理、时间片处理等多种形式,将多台计算机形成高性能计算机集群。对用户端(Client)而言,计算机集群则是一个单一的系统,可以为用户提供高性能的计算机系统,而用户不用关心有多少计算机承担了系统实现的任务,而只需要关注系统的整体处理能力。因此,计算机集群可以用多台普通性能的计算机组成具有高性能的计算机系统,承担只有超级计算机才能胜任的工作。 2.提供高可用性的计算机系统:通过计算机集群技术组成的系统,可以确保数据和应用程序对最终用户的高可用性,而不管故障属于什么类型。即当计算机集群中的节点计算机出现软硬件故障的时候,高可用性集群提供了对软件和硬件失败后的接替。它将服务器镜像到备用系统或节点中,当主节点上的系统崩溃时,冗余节点就从替补角色转换到正式角色,并自动投入应用,从而保证了系统运行的不间断。

高性能集群计算解决方案

https://www.sodocs.net/doc/e19184696.html,/sige_online/blog/item/d6aa74a9106a10ff1f17a224.html 和卫星遥测,遥感等探矿技术的发展,促使油气勘探的数据量爆炸性地增长, 要求信息系统能够获取,存储和处理TB级的巨量数据; 使用更精确的模型:为了提高探矿水平,必须使用规模更大,更精确数值模型来模拟地下矿藏的分布.5年前,模型的节点数一般不超过10万个;现在,经常需要使用节点数超过百万的3维模型来进行数值模拟; 提供更强的计算和数据管理能力:模型规模的扩大要求使用处理能力指数增长的计算机系统和更复杂的算法快速和精确地求解,同时也要求更强的数据管理能力来建立历史数据库,并把当前数据与长期积累的历史数据相比较,得到精确的综合预测结果; 支持功能丰富的应用软件:现代的油气探测应用软件必须具有直观的3维图象显示和输出,人机交互功能, 以提高工作效率; 降低成本:经济效益和市场竞争压力还迫使油气行业的信息系统在严格控制开支,降低总拥有成本条件下满足上述要求当前,传统的巨型机已经很难全面满足上述要求.油气行业要求使用更经济实惠的新解决方案来全面满足应用需求.Schluberger信息系统公司(SIS)是油气勘探信息处理领域中领先的厂商,也是HP在高性能技术计算领域重要的合作伙伴.该公司在使用基于安腾2的HP Integrity 服务器为计算节点的Linux集群上开发的面向油气矿藏模拟的ECLIPSE Parallel解决方案,能够全面满足油气矿藏勘探信息系统在性能和成本两方面的需求,提供解决人类社会现代化进程中能源问题的利器. 目标市场 ECLIPSE Parallel解决方案使用数值模拟方法满足油气行业探测石油和天然气地下分布状况和预测储量的需要, 油气公司从低级经理到高级主管各种类型的人员都可以得益于这一解决方案,包括:负责提供优化的矿藏分布和产量预测评估人员和经济分析师,负责作出开采决策的经理,信息系统管理人员;需要得到直观和实时矿藏信息的首席信息官(CIO)和首席执行官(CEO),负责监管的政府机构等等. 这一解决方案特别适合于要求打破油气行业使用巨型机传统,采用性能更高,价格/性能最佳的新颖解决方案的油气公司. 解决方案概貌 SIS ECLIPSE Parallel是一个基于英特尔和HP工业标准技术的成套解决方案,便于实施和灵活配置,提供先进的油气矿藏模拟功能.这一解决方案由系统平台和模拟软件两大部分组成(见下图). HP Linux ClusterBlocks集群系统是第一个经过认证的系统平台.这一Linux集群包括如下的层次: 计算节点:采用基于安腾2的HP Integrity rx2600服务器,使用新一代安腾2提供强大的64位处理能力; 互联设备:采用工业标准的高速Myrinet把计算节点联成一体,以太网联接管理节点; 操作环境:采用应用最广泛的RedHat Linux Advanced Server操作系统建立集群运行的操作环境; 集群管理和作业调度:采用Scali, Scyld或ClusterWare 公司著名的Linux工具软件管理集群系统;采用业界领先的Platform Computing的LSF 5.0软件来实现负载平衡,提高集群的工作效率上层的ECLIPSE Parallel模拟软件负责完成矿藏模拟的数值计算,它把整个数值求解问题分解成一系列较小的子问题,送到各个计算节点上并行地求解,然后再合成完整的结果. ECLIPSE Parallel解决方案这一基于Linux集群并行计算的设计思想,在性能,性价比,可伸缩性和可用性等方面都超过基于巨型机的传统解决方案,具有广阔的发展前途. 组成部件 SIS ECLIPSE Parallel软件与HP ClusterBlocks 集群结合在一起形成了一个把最先进硬件和软件完美地结合在一起的油气储藏模拟解决方案,它的主要组成部件有: 基于安腾2处理器的HP Integrity rx2600服务器; 工厂组装的基于Myrinet高速互联网络的16-128节点 Linux集群系统; RedHat Linux Advanced Server 2.1操作系统; Platform Computing的负载调度软件(LSF) 5.0:用于平衡集群内各节点的工作负载,提供运行效率; 消息传递接口(MPICH/GM):用于支持基于集群架构系统内的并行计算; 集群管理软件:允许采用Scali, Scyld, ClusterWareLinux 等公司的软件管理集群系统运行和资源共享; SIS ECLIPSE Parallel 油气储藏模拟软件 SIS ECLIPSE Parallel解决方案的硬件系统使用HP Integrity rx2600服务器作为计算节点,高速的Myrinet作为互联设备组成Linux集群,为油气储藏模拟软件提供高性能运行平台. ECLIPSE Parallel软件把整个模拟模型分解成若干个子区域.

华师大高性能计算集群作业调度系统简明手册

华师大高性能计算集群作业调度系统简明手册 华师大高性能计算集群采用曙光的Gridview作业管理系统,其中集成了torque+Maui,是十分强大的作业调度器。下面将依次介绍华师大的的作业调度系统的设定,使用,以及相关作业调度命令 一:华师大作业调度系统队列策略设定 由于华师大的超级计算中心共分三期建设,其作业调度设定较为复杂: CPU 节点名 (pestat 可查看) 节点Core 个数 队列备注 第一期E5450 b110-b149 b210-b229 8(2*4) mid1,huge 第二期E5640 b310-b339 b410-b439 8(2*4) mid2, hugeA(需申请) 其中hugeA队列提交后 需经批准 第三期X5675 ,GPU(c2050 ) a110-a149 a210-a249 a310-a339 a410-a447 12(2*6) mid3,small,ser ial,gpu hugeB(需申请), shu(私有队列) itcs(私有队列) 其中hugeB队列提交后 需经批准 shu和itcs为私有队列, 不向公共用户开放 在命令行输入cchelp 可以查看详细的华师大的作业调度系统策略,如下 二:作业调度系统的使用

华师大计算中心共有两个登陆节点login(59.78.189.188)和login1(59.78.189.187),供用户登陆提交相关作业。一般来说,可直接使用命令行提交作业。不过为了规范和易于管理,建议使用PBS脚本进行作业提交,提交命令为qsub **.pbs(pbs脚本文件)。 下面将简要的分别给出串行作业和并行作业的PBS样本(已放至/home/目录下),仅供参考,更多高级功能,请自行查阅相应手册。 1.串行作业pbs脚本样本 #PBS -N test \\表示该作业名称为test。 #PBS -l nodes=1:ppn=1 \\表示申请1 个节点上的1 颗CPU。 #PBS -j oe \\表示系统输出,如果是oe,则标准错误输出(stderr)和 标准输出(stdout)合并为stdout #PBS –q serial \\表示提交到集群上的serial 队列。 . /job>job.log 为提交的作业。 2.并行作业PBS脚本样本

Linux高可用集群系统的结构和原理分析

收稿日期:2007-09-15 第一作者简介:左 婷(1979-),女,吉林省四平市人,现为吉林师范大学信息网络中心研究实习员. 2007年11月 吉林师范大学学报(自然科学版) .4第4期Journal of Jilin Normal University(Natural Science Edition)Nov.2007 Linux 高可用集群系统的结构和原理分析 左 婷1,吴会军2 (1.吉林师范大学信息网络中心,吉林四平136000;2.吉林省水文水资源局,吉林长春130000) 摘 要:通过对目前常用Linux 平台上高可用集群系统的软、 硬件基本结构和工作原理的分析与研究,构建容易扩展、高可用、易维护和管理、高性价比的计算机系统. 关键词:L inux;高可用集群系统;结构;原理 中图分类号:T P393 文献标识码:A 文章编号:1000-1840-(2007)04-0115-02 目前,很多国际知名软件公司和计算机厂商都推出了 自己的集群产品,其中值得一提的是T he H igh A vailability L inux Project 的开放源代码Heartbeat,已经同商业集群软件 一样成熟,而且较后者应用更为灵活.本文将着重介绍SuSE L inux Enterpr i se Server 10平台上Heartbeat2.0.8组成结构 和工作原理.1 Linux 高可用集群系统的基本概念伴随着集群技术的发展,出现了一些关于集群系统的概念和术语.(1)集群资源和集群资源代理.在集群系统中,所有由集 群控制和管理,并将其以单一和统一的形式提供给客户端用 户使用的计算机资源称为集群资源,例如:一种服务、一个 IP 地址、一个磁盘驱动,甚至可以说:除了节点,其它任何软 硬件资源都可以成为集群资源.而集群资源代理是为了控制 和管理某一集群资源而编写的代理程序脚本,集群软件通过 特定集群资源代理来操控某一集群资源,Heartbeat 套件本 身已经包含了一些常用资源代理,开发人员也可以自己按照 一定的规范编写;(2)指定协调者(也称主节点).主节点除了 具有其它一般节点具有的集群节点基本功能外,还负责对整 个集群系统的状态进行监控、分析和转换,对集群系统下达 集群指令,协调各节点的操作等,实际上是整个集群系统的 大脑!,显然一般情况下,整个集群系统只有一个主节点,但 当某些特殊情况发生时,例如主节点不再是集群中的节点, 主节点将发生迁移,即位置发生了变化,另一个节点将代替 它成为主节点;(3)ST ON IT H.英文 Shoot T he Other Node In T he Head !的缩写,代表一种将错误操作的节点进行隔离 的技术,为了防止错误操作的节点对集群资源进行破坏性控 制和操作,使其不断重新启动或关机,从而使其无法取得对 集群资源的控制权;(4)裂脑和仲裁.在某种情况下,由于软 硬件失败导致各节点无法相互确定彼此的状态时,整个集群将被分裂为几个部分,每个部分都想取得对集群资源的控制权,以保证集群的高可用,这种对集群资源的竞争将严重破坏集群资源的完整性和一致性,甚至导致整个集群瘫痪、硬件被损坏的严重后果,这种情况称为裂脑.为了防止裂脑的发生,由仲裁协议决定哪个部分来取得对集群资源的控制 权,为了继续保证系统的高可用,一般将控制权交给节点数 超过原集群节点数一半的部分,同时将其它节点进行隔离; (5)单点故障(失败).单点故障是指由于系统中某一组件的 故障或运行失败从而导致整个集群系统瘫痪和应用服务完 全停止,因此,在高可用集群的构建中应尽量避免单点故障.2 Heartbeat 的主要进程Heartbeat 的所有集群功能都是由它的进程和它们之间相互通信来具体实现的.(1)集群资源管理器(CRM ,Cluster Resource M anager).CRM 是集群系统中最主要的管理进程,它负责对整个集群资源的管理和约束,包括资源的配置及相互间依赖关系,并决定资源运行的状态、位置和时间等.另外它还负责监控本地资源管理器完成这些工作,CRM 通过与系统的每一个组件通信来相互作用和协调操作,CRM 通过heartbeat 通讯模块进行节点间通讯,从CCM 接受当前集群的成员信息,指令ST O NI TH Daremon 如何工作,负责记录系统日志等;(2)策略引擎(PE,CR M Policy Eng ine).PE 是CRM 的一个组件,只能在主节点上运行.PE 的功能是根据当前集群的状态及集群资源的约束配置计算出集群的下一个状态,即为T E 生成将要执行的计划和策略;(3)执行引擎(T E,CRM T ransi tion Engine).T E 也是CRM 的一个组件,只能在主节点上运行.T E 的功能是按照P E 生成的集群状态变化计划和策略,指令集群节点上的LRM 对具体的集群资源进行操作;(4)?115?

高性能计算(HPC)数据中心解决方案

解决方案简介 面临的挑战 随着当前信息的爆炸式增长,以及在使用基于x86微芯片的通用硬件方面的不断创新,通常是由多台机器来提供计算以共同执行非常复杂的任务。这使得网络成为一个至关重要的HPC 组件。解决方案 瞻博网络提供一种高速的HPC 数据中心网络解决方案。此HPC 基础架构非常适合于那些希望近距离互连多台10GbE 服务器,而且延迟时间不能超过亚微秒的客户。优势 ? 基于10GbE 接入的模块化网络设计? 支持极大规模的低延迟连接? 提供多种功能来满足端到端的应用需求 高性能计算(HPC )数据中心解决方案 瞻博网络HPC 解决方案能够帮助客户执行密集的计算任务,并提供最大的网络效率和可靠性 面临的挑战 随着高性能集群解决方案和超级计算的日渐增加,越来越多的行业开始转向多节点集群应用。采用HPC 技术背后的主要驱动因素是越来越多的用户可以访问不断增加的数据量,这就需要进行计算以处理这些数据。由于基于以太网的集群解决方案的普及,以及在高性能业务中进行密集型计算和建模所带来的价值,很多企业开始重新审视计算集群为他们带来的经济效益。下面是多个行业从HPC 技术获得明显收益的实例: ? 设计工作室依靠计算集群来进行动画和视觉效果的渲染和建模。? 工程和建筑公司使用HPC 进行建模和3D 成像。? 石油和能源公司使用HPC 进行建模和地震研究。? 生物技术公司利用HPC 进行建模和预测性模型分析。? 投资公司和银行利用HPC 进行算法交易建模和快速市场分析。? 零售公司利用HPC 获得市场情报和进行基于视频的业务分析。? 学术界始终在挑战可以实现的最大计算能力。 一般说来,这些计算挑战对于网络提出了一系列极为苛刻的要求。局域网的最初设计目的是将相对较近的最终用户工作站连接在一起,并支持这些工作站与远程网络进行通信。HPC 网络对于网络的要求主要是服务器与服务器的连接性,局域网应用与现代数据中心在通信流量模式上有很大差距,与HPC 数据中心的差距就更大了。由于这些因素,我们看到以太网大约只服务于一半的HPC 市场,In? niband 还占有显著的市场份额。一直以来,Infiniband 都被视作服务于那些低延迟和极高性能的HPC 集群应用的传统技术。 不单单是现有的局域网架构不能很好地支持HPC 基础架构(瞻博网络基于1GbE 的集群交换fabric 技术可以解决这一问题),而且,长期以来以太网技术(实际上是局域网的基础)也缺乏某些HPC 集群所需的高性能特征。随着10GbE 的商业化,基于以太网的HPC 解决方案开始具有技术可行性和出色的经济性。

高性能计算集群的cae软件应用

随着计算机应用的广泛深入,不同领域处理问题的规模也越来越大,对计算速度的追求也在不断增长。例如,在气象预报、流体力学、能源工程、生物制药、图像处理等领域的问题都涉及到海量的计算数据,并且计算必须在能接收的时间内完成。所以,如何在短时间内完成计算任务,提高并行计算的效率已经成为这些领域要解决的问题。 商用CAE软件现在发展的非常之迅速,而且都致力于软件的并行化开发。目前,市场上的通用CAE软件都实现了集群中的并行运行,而且效果都非常良好。以ANSYS为例,作为目前最常用的有限元求解软件之一,它的求解模块种类多,多物理场实现耦合求解以及实现协同仿真技术等优点受到广大用户的欢迎。因此,通用CAE已经成为今后工程计算领域的重要工具。 1 CAE通用软件的发展 20世纪在50年代末、60年代初就投入大量的人力和物理开发具有强大功能的有限元分析程序。其中最为著名的是由美国国家宇航局在1965年委托美国计算科学公司和贝尔航空系统公司开发的NASTRAN有限元分析系统。此后有德国的ASKA、英国的PAFEC等公司的产品。 CAE在工程上初步开始使用一直到今天,已经经历了50多年的发展历史,其理论和算法都经历了从蓬勃发展到日趋成熟的过程。在航天、航空、机械、土木机构等领域的工程和产品结构分析中已经成为必不可少的数值计算工具,同时也是分析连续力学各类问题的一种重要手段。随着计算机技术的普及和不断提高,CAE系统的功能和计算精度都有很大提高,

各种基于产品数字建模的CAE系统应运而生,并已成为结构分析和结构优化的重要工具,同时也是计算机辅助4C系统(CAD/CAE/CAPP/CAM)的重要环节。CAE系统的核心思想是结构的离散化,即将实际结构离散为有限数目的规则单元组合体,实际结构的物理性能可以通过对离散体进行分析,得出满足工程精度的近似结果来替代对实际结构的分析,这样可以解决很多实际工程需要解决而理论分析又无法解决的复杂问题。 正因为CAE在制造企业中承担着关键的工具的作用,所以其高性能平台的选择也非常的重要,这个平台直接影响CAE的运行性能表现、整体成本和系统等方面的问题。所以,高性能计算平台与CAE软件的如何更好的配合要进行一个全面的权衡。 2 CAE模拟的步骤 2.1 建立物理模型 在研究一项具体的问题的时候,首先必须要明确研究对象及其物理特性。确定出一个具有特定便捷的研究区域,分析的特征与特性。其次根据研究内容的特征,做出简化假定和近似,忽略非本质的物理过程来简化整个物理模型。从而得出一个经过简化,比较有研究特点的物理模型。 2.2 建立数学模型 物理模型确定以后就要建立相应的数学模型,也就是用数学模型来反映问题各量之间的

基于改进集群计算的遥感数据快速处理平台

2012年第11期福建电脑 基于改进集群计算的遥感数据快速处理平台 宋丽君1,2,3,马骏1,2,赖积保1,2,3,余涛3,李治1,2,3(1.河南大学计算机与信息工程学院河南开封4750042.河南大学数据与知识工程研究所河南开封475004) 3.中国科学院遥感应用研究所北京100101) 【摘要】:针对海量、大型遥感数据处理的难题,采用在集群计算环境中使用分布式存储、P2P 通信,并与GPU 相结合的策略,提出了一个基于改进集群计算的遥感数据快速处理平台。分析了该平台的体系结构与结构模型,并对其进行详细论述,最后,对平台的性能进行了分析。 【关键词】:遥感数据;改进集群计算;分布式存储;P2P 通信;GPU 1、引言 目前,遥感数据空间分辨率、时间分辨率及光谱分辨率普遍提高,获取速度快,周期短,使得遥感的数据量急剧膨胀。存储、传输与处理以及规模化生产是迫切需要解决的三大难题。 集群计算拥有性价比高、扩展性好、现有资源再次利用等优势[1]。但是,现有的集群模式无法很好的解决遥感数据的难题,数据的传输会形成巨大的延迟,计算能力也远远无法满足处理需要。 为此,为了解决遇到的三大难题,本文提出了改进集群计算的观点。即进一步采用GPU 高性能计算、大型遥感数据分块处理、分布式数据存储、计算单元P2P 通信的方式。 2、设计思想与目标 遥感数据快速处理平台其设计示意如图1所示。 遥感数据快速处理平台采用对大型遥感数据进行合理切分[2],进行并行处理的策略,数据的切分由GPU 数据预处理模块集中处理。切分后的数据采取分布式存储的方式,分散的放置在各个计算单元上,利用多台计算单元作为存储站点分担 存储负荷。因计算单元同时也作为存储站点,数据的传输采用P2P 模式[3],任意两个计算单元之间可以实现点对点通信,获取本机上不存在的数据。 3、总体结构 遥感数据快速处理平台体系结构如图2所示,分为八个模块。 (一)任务发起 遥感数据快速处理平台实现了遥感数据的规模化生产,支持多用户多任务并行。 (二)数据预处理 数据预处理主要是对遥感数据进行合理的切分,分布式存储在众多的计算单元上。数据预处理主要是通过多个多核GPU 来处理遥感影像数据,提前集中解决复杂度很高的计算,提高了遥感数据快速处理平台正式生产产品时的效率,降低了对计算单元性能的要求,减少了构建平台的资金消耗。 (三)任务管理 任务管理模块提供强大的调度功能,以支持 基金项目:国家重大科技专项高分辨率对地观测系统项目(E0101/1010/01/10,E0104/1112/XT-002),国家自然科学基金(60973126)资助 。 1

相关主题