搜档网
当前位置:搜档网 › 创建一个简单的Linux集群

创建一个简单的Linux集群

创建一个简单的Linux集群
创建一个简单的Linux集群

详解Linux服务器集群

服务器集群系统(二) 集群的体系结构 本文主要介绍了集群的体系结构。先给出集群的通用体系结构,并讨论了其的设计原则和相应的特点;最后将集群应用于建立可伸缩的、、和等网络服务。 .引言 在过去的十几年中,从几个研究机构相连为信息共享的网络发展成为拥有大量应用和服务的全球性网络,它正成为人们生活中不可缺少的一部分。虽然发展速度很快,但建设和维护大型网络服务依然是一项挑战性的任务,因为系统必须是高性能的、高可靠的,尤其当访问负载不断增长时,系统必须能被扩展来满足不断增长的性能需求。由于缺少建立可伸缩网络服务的框架和设计方法,这意味着只有拥有非常出色工程和管理人才的机构才能建立和维护大型的网络服务。 针对这种情形,本文先给出集群的通用体系结构,并讨论了其的设计原则和相应的特点;最后将集群应用于建立可伸缩的、、和等网络服务。 集群的通用体系结构 集群采用负载均衡技术和基于内容请求分发技术。调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。整个服务器集群的结构对客户是透明的,而且无需修改客户端和服务器端的程序。

图:集群的体系结构 为此,在设计时需要考虑系统的透明性、可伸缩性、高可用性和易管理性。一般来说,集群采用三层结构,其体系结构如图所示,三层主要组成部分为: ?负载调度器(),它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个地址(我们可称之为虚拟地址)上的。 ?服务器池(),是一组真正执行客户请求的服务器,执行的服务有、、和等。 ?共享存储(),它为服务器池提供一个共享的存储区,这样很容易使得服务器池拥有相同的内容,提供相同的服务。 调度器是服务器集群系统的唯一入口点(),它可以采用负载均衡技术、基于内容请求分发技术或者两者相结合。在负载均衡技术中,需要服务器池拥有相同的内容提供相同的服务。当客户请求到达时,调度器只根据服务器负载情况和设定的调度算法从服务器池中选出一个服务器,将该请求转发到选出的服务器,并记录这个调度;当这个请求的其他报文到达,也会被转发到前面选出的服务器。在基于内容请求分发技术中,服务器可以提供不同的服务,当客户请求到达时,调度器可根据请求的内容选择服务器执行请求。因为所有的操作都是在操作系统核心空间中将完成的,它的调度开销很小,所以它具有很高的吞吐率。 服务器池的结点数目是可变的。当整个系统收到的负载超过目前所有结点的处理能力时,可以在服务器池中增加服务器来满足不断增长的请求负载。对大多数网络服务来说,请求间不存在很强的相关性,请求可以在不同的结点上并行执行,所以整个系统的性能基本上可以随着服务器池的结点数目增加而线性增长。

Websphere for Linux集群安装和配置

前言 目前天安保险的WAS环境中有5台服务器,每台服务器配成一个node,每个node上配置了2个application server,组成了一个ND的环境。前台有一台F5做负载均衡,后面连接了1套oracle RAC的数据库。但5个node之间没有做成集群。为了保证Websphere系统高可用性,提高系统性能和负载均衡,考虑配置成集群,下面说明创建、配置集群的整个过程与注意事项。 1. 集群系统架构 操作系统:Linux version 2.6.18-8.el5 Websphere版本:WAS6.1ND 根据天安的环境,可使用如下拓扑: 其中cisapp1~cisapp5表示5台WebSphere,cisCluster表示5台做成一个cluster,dmgr一般是5台中的一台。

2. 创建集群(含session复制) (截图为我本机测试截图,只是示意图,与天安保险的节点名和集群名不符) 在DMGR控制台中,选择集群,然后新建。 注意:先创建一个空的集群,然后我们再向该集群中添加成员即可。 这里还要注意勾选“配置HTTP会话内存到内存复制”,这样就能使session 在集群内共享,比如用户登录,加入被集群分配给node1来处理,用户的登录信息就会被保存在session中,如果此时node1宕机了,用户就会被分配到其他节点来处理而不会要求重新登录。 如果在创建集群时没有勾选此选项,也可按如下方式操作: 配置会话复制 服务器 --> 应用程序服务器 --> 选择集群成员 --> 容器设置:会话管理--> 其他属性:分布式环境设置 --> 确认分布式会话选择的是内存到内存复制,其他属性:定制调整参数 --> 调整级别: 低(故障转移优化) 写频率 servlet服务结束

was8.5.5 linux集群部署

概述 linux集群部署,记录关键的几个步骤如下: 1.做两个InstallationManager安装工具,一个控制平台(79),一个HIS(78),两个node 2.服务器获取文件,sftp root@10.224.130.18p@ssw0rd 3.get /opt/software/IBM/agent.zip /opt/software/IBM/ exit 安装InstallationManager # 78、79上安装InstallationManager cd /opt/software mkdir agent unzip -q agent.zip -d agent cdagent /tools ./imcl install com.ibm.cic.agent -repositories ../repository.config -acceptLicense 安装WAS AS 8.5.5 #两个服务器都安装WAS mkdir WAS_ND_V8.5.5_3 unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_1_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_2_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_3_OF_3.zip cd /opt/IBM/InstallationManager/eclipse/tools/ ./imcllistAvailablePackages -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 ./imcl install com.ibm.websphere.ND.v85_8.5.5000.20130514_1044 -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 -acceptLicense 安装HIS #78 安装HIS mkdirWAS_V8.5.5_SUPPL unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_1_OF_3.zip unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_2_OF_3.zip

Linux下高可用集群方案

Linux下高可用集群方案很多,本文介绍的是性价比比较高的一种: 使用Heartbeat 2.0配置Linux高可用性集群。 一、准备工作 你首先需要两台电脑,这两台电脑并不需要有相同的硬件(或者内存大小等),但如果相同的话,当某个部件出现故障时会容易处理得多。接下来您需要决定如何部署。你的集群是通过Heartbeat 软件产生在两台电脑之间心跳信号来建立的。为了传输心跳信号,需要在节点之间存在一条或多条介质通路(串口线通过modem电线,以太网通过交叉线,等等)。现在可以开始配置硬件了。既然想要获得高可用性(HA),那么您很可能希望避免单点失效。在本例中,可能是您的null modem线/串口,或者网卡(NIC)/ 交叉线。因此便需要决定是否希望为每个节点添加第二条串口null modem连线或者第二条NIC/交叉线连接。我使用一个串口和一块额外的网卡来作为heartbeat的通路,这是因为我只有一条null modem线和一块多余的网卡,并且认为有两种介质类型传输heartbeat信号比较好。硬件配置完成之后,便需要安装操作系统以及配置网络(我在本文中使用的是RedHat)。假设您有两块网卡,那么有一块应该配置用于常规网络用途,另一块作为集群节点之间的专用网络连接(通过交叉线)。例如,假设集群节点有如表-1下的IP地址: 表-1集群节点的IP地址 输入如下命令检查您的配置: ifconfig 这将显示您的网卡及其配置。也可以使用命令“netstat –nr”来获得网络路由信息。如果一切正常,接下来要确定可以来两个节点之间通过所有接口ping通对方。如果使用了串口,便需要检测其连接情况。把一个节点作为接收者,输入命令: cat

LINUX中使用IPVSADM配置LVS集群的基本方法

LVS集群有DR、TUN、NAT三种配置模式,可以对www服务、FTP服务、MAIL服务等做负载均衡,下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置。 一、 Director Server的配置 在Director Server上配置LVS负载均衡集群,有两种方法: a. 通过ipvsadm命令行进行配置 b. 通过Redhat提供的工具piranha来配置LVS 通过ipvsadm命令行方式配置LVS 安装IPVS后,就可以配置LVS集群了,首先在Director Server上绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令: 复制代码 代码如下: [root@localhost ~]#ifconfig eth0:0 192.168.60.200 broadcast 192.168.60.200 netmask 255.255.255.255 up 此处在eth0设备上绑定了一个虚拟设备eth0:0,同时设置了一个虚拟IP是192.168.60.200,也就是上面我们规划的IP地址,然后指定广播地址也为192.168.60.200,需要特别注意的是,这里的子网掩码为255.255.255.255。 然后给设备eth0:0指定一条路由,执行如下指令: 代码如下: [root@localhost ~]#route add -host 192.168.60.200 dev eth0:0 接着启用系统的包转发功能,从而使系统充当路由器,执行如下指令: 代码如下: [root@localhost ~]#echo 1 ;/proc/sys/net/ipv4/ip_forward 指令中,参数值为1时启用ip转发,为0时禁止ip转发。其实在DR模式中,开启系统的包转发功能不是必须的,而在NAT模式下此操作是必须的。 然后开始配置ipvs,执行如下操作:

DM7集群部署方案之数据守护集群Linux(主备)

DM7集群部署方案之数据守护集群 Linux(主备) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (8) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

1.3硬件环境建议 心跳网络方面:①集群间的心跳网络要走数据,最好走两个交换机,来实现冗余和负载均衡。②需要把服务器多个心跳网卡绑定为一个逻辑网卡来使用(比如bond方式)。③交换机速度建议至少为千兆。 存储方面:①需要在每台机器上挂在独立存储,其中主机所在机器挂载的存储建议大一些。②需要格式化好,且所有机器挂载路径保持一致。③在空间不够用时,要求支持在挂载目录上直接进行扩充。④文件系统建议使用ext4。 1.4硬件环境环境验证 心跳网络方面:①关闭其中一台交换机或者模拟其中一条线路故障,是否能做到网络方面的冗余。②测试心跳网络的稳定性,会不会出现断连或者丢包等情况。 存储方面:反复重启集群机器,检查存储是否会出现只读、脱挂、挂载路径是否会发生改变等情况。 1.5A机器:实例、启服务 2配置A机器 2.1注册服务 ①复制数据库和守护进程服务文件到/etc/rc.d/init.d目录 ②vi /etc/rc.d/init.d/DmServiceRT1_01文件 ③vi /etc/rc.d/init.d/DmServiceWatcher文件 ④修改启动服务的等级连接

linux集群应用实战

课程描述: 网络的飞速发展,给网络带宽和服务器性能带来了巨大的挑战,基于互联网的应用系统越来越多的瓶颈出现在服务器端,这就对服务器提出了更高的要求,同时,在互联网运营和管理上,也要求更加的智能和灵活,如何能够实时的了解每个服务器的运行状态,并在应用出现故障的第一时间内来处理问题,成为互联网运维中的一个重中之重。 本课程就重点介绍这方面的应用和案例,首先介绍开源的网络存储应用ISCSI,iSCSI技术以其低廉的构建成本和优秀的存储性能,博得了很多CIO和存储管理员的喜爱,目前已经陆续进入企业应用领域,这种技术推动了企业向集中式存储环境转变。 接着介绍nagios监控系统,Nagios是系统管理人员和运维监控人员必须的工具之一,使用nagios可以监控本地或远程主机资源,例如磁盘空间、系统负载等信息,也可以监控各种应用服务,例如httpd服务、ftp服务等,当主机或者服务出现故障时,nagios还可以通过邮件、手机短信等方式在第一时间内通知系统维护人员。利用nagios可以以低廉的成本达到商业监控系统所完成的功能。 最后,讲解了集群系统在企业级方面的应用,主要讲述了红帽集群套件RHCS开源HA heartbeat、负载均衡器LVS、Oracle集群数据库RAC、Mysql+DRBD集群等方面的应用案例,通过使用Linux搭建集群,可以用较低的价格来实现高可伸缩、高可用的网络服务,弥补单一服务器无法达到的性能。 购买地址:https://www.sodocs.net/doc/174279069.html,/3501607 在线观看: 讲师介绍: 高俊峰,网名南非蚂蚁,经常活跃于国内著名技术社区IXPUB (https://www.sodocs.net/doc/174279069.html,)、ITPUB (https://www.sodocs.net/doc/174279069.html,)、ChinaUnix(https://www.sodocs.net/doc/174279069.html,),在IXPUB任“Linux与开源世界”及“存储设备与容灾技术”版主,多年专注于Linux+Oracle技术方面的研究与实践,擅长Linux系统管理与应用,实战经验丰富。 课程目录一览 第1讲 iscsi的概念、组成和工作原理 课程目标:了解iscsi的组成和工作原理。 课程内容: iscsi的概念。 iscsi的组成。 iscsi的工作原理。 第2-3讲基于iscsi的ip san存储系统 课程目标:

DM7集群部署方案之数据共享集群Linux(2节点)

DM7集群部署方案之数据共享集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 前期准备工作 (1) 1.1硬件准备 (1) 1.2网络架构 (1) 1.3硬件环境建议 (1) 1.4硬件环境环境验证 (2) 1.5集群规划 (2) 1.6修改主机名 (2) 1.7关闭防火墙 (3) 1.8网卡自启 (3) 1.9修改系统参数 (3) 2 创建目录并安装数据库 (3) 2.1A机器 (3) 2.2B机器 (4) 3 存储准备 (4) 3.1划存储 (4) 3.2挂存储方法1:直接挂 (4) 3.3挂存储方法2:多路径绑定 (5) 4 搭建DSC (6) 4.1配置DMDCR_CFG.INI (6) 4.2初始化磁盘组 (7) 4.3配置DMASVRMAL.INI (7) 4.4配置DMDCR.INI (7) 4.5启动CSS、ASM服务 (8) 4.6创建DMASM磁盘组 (9) 4.7配置DMINIT.INI (9) 4.8初始化数据库 (9) 4.9配置DMARCH.INI (10)

4.10启动DMSERVER服务 (10) 4.11设置后台启动脚本 (11) 4.12启停集群 (12) 5 配置监视器 (13) 5.1配置DMCSSM.INI (13) 5.2启动监视器 (13) 6配置DM_SVC.CONF文件 (13) 6.1 DM_SVC.CONF配置内容 (13) 6.2应用连接 (14) 7附加操作 (14) 7.1操作系统/数据库调优 (14) 7.2数据库备份 (14) 7.3项目管理维护 (14)

Linux开源集群架构之keepalived应用详解

第03章 集群利器Keepalived

本章主要了解开源高可用负载均衡集群利器Keepalived,掌握Keepalived的安装,运用Keepalived配置高可用集群,并能够实现Keepalived与负均衡集群LVS的完美组合。 一、Keepalived概述 1、什么是Keepalived? keepalived是一个类似于layer3, 4 & 5交换机制的软件,也就是我们平时说的第3层、第4层和第5层交换。Keepalived的作用是检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器工作正常后Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器 2、keepalived理论工作原理 Layer3,4&5工作在IP/TCP协议栈的IP层,TCP层,及应用层,原理分别如下: Layer3:Keepalived使用Layer3的方式工作式时,Keepalived会定期向服务器群中的服务器发

送一个ICMP的数据包(既我们平时用的Ping程序),如果发现某台服务的IP地址没有激活,Keepalived便报告这台服务器失效,并将它从服务器群中剔除,这种情况的典型例子是某台服务器被非法关机。Layer3的方式是以服务器的IP地址是否有效作为服务器工作正常与否的标准。 Layer4:主要以TCP端口的状态来决定服务器工作正常与否。如web server的服务端口一般是80,如果Keepalived检测到80端口没有启动,则Keepalived将把这台服务器从服务器群中删除。 Layer5:Layer5就是工作在具体的应用层了,比Layer3,Layer4要复杂一点,在网络上占用的带宽也要大一些。Keepalived将根据用户的设定检查服务器程序的运行是否正常,如果与用户的设定不相符,则Keepalived将把服务器从服务器群中剔除。

Torque在Linux集群上的安装配置

服务器的基本状况: 一个2T硬盘的前端存储节点,名称为tccl_front;9台8核的计算节点,名称分别为tccl01-tccl09。操作系统为CentOS 5.3 x86_64版本的Linux系统。 NIS服务已经配置好,存储节点的磁盘用NFS挂载在每个计算节点上作为共享磁盘。所有的应用软件都安装在此共享磁盘上。 1.ssh免密码登录.对每个用户都要设置。 2.下载Torque,解压缩,编译。 目前,torque 2.3是稳定版本,2.4是beta版本。为了稳定,我下载的是2.3.9版本。下载地址: https://www.sodocs.net/doc/174279069.html,/downloads/torque 在PBS服务器节点上: tar xvfz torque-2.3.9.tar.gz configure需要加参数 ./configure --enable-docs --with-scp --enable-syslog make make packages make install 将torque-package-mom-linux-i686.sh,torque-package-clients-linux-i686.sh安装到计算节点上。 将这两个文件拷贝到计算节点上(或者是共享磁盘上),登录进计算节点,运行: ./torque-package-mom-linux-i686.sh --install ./torque-package-clients-linux-i686.sh --install 可以使用dsh之类的工具来辅助。或者手工写一个脚本来完成这些工作。 3.配置pbs_mom为服务 在torque源码包contrib目录中有一个文件 cp contrib/init.d/pbs_mom /etc/init.d/pbs_mom chkconfig --add pbs_mom 在所有的机器(pbs服务器和计算节点)上都需要如此设置。 写脚本来完成吧!比如 for i in `seq 1 9` do echo tccl0$i ssh tccl0$i "some command" done 4.配置torque 1) ldconfig 2) Specify Compute Nodes 编辑文件 /var/spool/torque/server_priv/nodes 内容如下(注意,这里使用的都是机器的简称,与使用免密码登录时的机器名称相同):

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache双机高可用集群 + Tomcat负载均衡集群配置手册

在这个配置手册中,使用的操作系统和软件清单如下: 操作系统: RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装) 软件: jdk-1_5_0_15-linux-amd64.bin Tomcat5.5.26 httpd-2.0.63.tar.gz jakarta-tomcat-connectors-jk2-src-current.tar.gz ipvsadm-1.24.tar.gz libnet.tar.gz heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。 jdk-1_5_0_15-linux-amd64.bin JAVA环境包使用的是64位1.5版 Tomcat版本为公司指定的5.5版本 Apache为2.0.63版 jakarta-tomcat-connectors-jk2-src-current.tar.gz 是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载 ipvsadm-1.24.tar.gz libnet.tar.gz 这两个是用于2台Apache服务器虚拟一个IP地址使用 heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 这3个软件是用于2台Apache服务器之间的心跳检测

linux服务器集群的详细配置

linux服务器集群的详细配置 一、计算机集群简介 计算机集群简称集群是一种计算机系统,它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作。在某种意义上,他们可以被看作是一台计算机。集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式。集群计算机通常用来改进单个计算机的计算速度和/或可靠性。一般情况下集群计算机比单个计算机,比如工作站或超级计算机性能价格比要高得多。 二、集群的分类 群分为同构与异构两种,它们的区别在于:组成集群系统的计算机之间的体系结构是否相同。集群计算机按功能和结构可以分成以下几类: 高可用性集群High-availability (HA) clusters 负载均衡集群Load balancing clusters 高性能计算集群High-performance (HPC) clusters 网格计算Grid computing 高可用性集群 一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上。还指可以将集群中的某节点进行离线维护再上线,该过程并不影响整个集群的运行。 负载均衡集群 负载均衡集群运行时一般通过一个或者多个前端负载均衡器将工作负载分发到后端的一组服务 器上,从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群(Server Farm)。一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点。 Linux虚拟服务器(LVS)项目在Linux操作系统上提供了最常用的负载均衡软件。 高性能计算集群 高性能计算集群采用将计算任务分配到集群的不同计算节点而提高计算能力,因而主要应用在科学计算领域。比较流行的HPC采用Linux操作系统和其它一些免费软件来完成并行运算。这一集群配置通常被称为Beowulf集群。这类集群通常运行特定的程序以发挥HPC cluster的并行能力。这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI库 集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况。 网格计算 网格计算或网格集群是一种与集群计算非常相关的技术。网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机,它的运作更像一个计算公共设施而不是一个独立的计算机。还有,网格通常比集群支持更多不同类型的计算机集合。 网格计算是针对有许多独立作业的工作任务作优化,在计算过程中作业间无需共享数据。网格主要服务于管理在独立执行工作的计算机间的作业分配。资源如存储可以被所有结点共享,但作业的中间结果不会影响在其他网格结点上作业的进展。

CAS集群部署(Linux)

安装CAS集群(v1.0)

目录 1部署操作 (2) 1.1硬件及部署要求 (2) 1.1.1部署图 (2) 1.2操作系统安装—SERVER1,2 .................................................................................................. 错误!未定义书签。 1.3安装M EMCACHED (2) 1.3.1安装环境 (2) 1.3.2安装步骤 (3) 1.4安装LVS (7) 1.5配置CAS集群模式 (11)

1 部署操作 1.1 硬件及部署要求 以下几种集群部署策略请根据实际情况选择确定。 (1)使用认证平台人数在3万人以下,并发5000以下,不推荐集群化部署,单台即可; 节点服务器要求(2路4核,8G 内存以上)物理机优先。 1.1.1 部署图 说明:此架构为CAS 的集群模式,考虑高并发的模式及双击热备的模式,Memcached 需要配置1-2G 内存,可以考虑单独部署服务器,可以与其中一台CAS 服务器进行一起部署。 如果Memcached 挂了或者不能访问了,CAS 服务器就不能访问。 ● CPU 类型:Intel/AMD (64位,主频2.6GHz 以上,2核及以上) ● 内存容量:4GB 及以上 ● 硬盘容量:160GB 以上,Raid 1/5 ● 网络控制器:千兆以太网卡(两块以上) ● IP (对外提供服务):3个,其中一个为虚拟ip ● 集群策略:MirrorMode ● 拓扑图: PC Smart Phone IP :Memcached 1.2 安装Memcached 1.2.1 安装环境 redhat server 6.3(64bit)/ Centos 6.3(64bit)

linux集群

RHCS集群配置 需要用到的各组件功能: RHCS(Red Hat Cluster Suite):能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合。 LUCI:是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统。 CLVM:Cluster逻辑卷管理,是LVM的扩展,这种扩展允许cluster中的机器使用LVM来管理共享存储。 CMAN:分布式集群管理器。 GFS(Google File System):以本地文件系统的形式出现。多个Linux机器通过网络共享存储设备,每一台机器都可以将网络共享磁盘看作是本地磁盘,如果某台机器对某个文件执行了写操作,则后来访问此文件的机器就会读到写以后的结果。 实验需求: 集群管理/ISCSI共享存储主机IP:192.168.0.40主机名:https://www.sodocs.net/doc/174279069.html, 集群节点一IP:192.168.0.41主机名:https://www.sodocs.net/doc/174279069.html, 集群节点二IP:192.168.0.42主机名:https://www.sodocs.net/doc/174279069.html, 一、【准备工作】 1、修改管理主机和每个节点的hosts文件,保证三台服务器的hosts文件一样。 注:主机名最好使用域名形式,因为之前只用了gfs1这样的主机名,到后来,配置都顺利结束,但重启节点后,发现共享存储挂不上,看到是clvmd启动超时,估计是主机名的原因,解析不到?有待斟酌。 2、两台节点上分别关闭selinux、iptables和NetworkManager

注:两台节点上都得操作,操作完后reboot重启两台节点,使配置生效 二、【群集管理主机设置】 1、安装并启用luci集群管理 这时,你就可以用https://https://www.sodocs.net/doc/174279069.html,:8084(或https://192.168.0.40:8084)登陆集群web管理界面了,以root登陆即可 三、【各节点配置】 1、在两台节点分别yum安装ricci、rgmanager、cman 启动cman如出现错误: Starting cman... xmlconfig cannot find /etc/cluster/cluster.conf [FAILED] 是因为节点还没有加入集群,没有产生配置文件/etc/cluster/cluster.conf 2、在两台节点上给ricci用户设置与root相同的密码 四、【集群web管理界面配置】 1、浏览器打开https://192.168.0.40:8084 输入root和root密码进行登陆 2、添加集群 点击Manager Clusters---> Create 创建一个集群,如下图,输入集群名称,添加每个节点的主机名、密码,勾选Download Packages、Reboot Nodes Before Jo ining Cluster、Enable Shared Storage Support,最后点击Create Cluster创建集群,耐心等待,创建过程中两台节点会重启...

Linux上集群及其配置实例

Linux上的集群及其配置实例 2005年2月25日 15:41:58 通过Linux LVS,实现WWW,Telnet服务的负载平衡。这里实现Telnet 集群服务仅为了测试上的方便。 LVS有三种负载平衡方式,NAT(Network Address Translation),DR (Direct Routing),IP Tunneling。其中,最为常用的是DR方式,因此这里只说明DR(Direct Routing)方式的LVS负载平衡。 网络拓扑结构。 如图1所示,为测试方便,4台机器处于同一网段内,通过一交换机或者集线器相连。实际的应用中,最好能将虚拟服务器vs1和真实服务器rs1, rs2置于于不同的网段上,即提高了性能,也加强了整个集群系统的安全性。 服务器的软硬件配置 首先说明,虽然本文的测试环境中用的是3台相同配置的服务器,但LVS并不要求集群中的服务器规格划一,相反,可以根据服务器的不同配置和负载情况,调整负载分配策略,充分利用集群环境中的每一台服务器。 这3台服务器中,vs1作为虚拟服务器(即负载平衡服务器),负责将用户的访问请求转发到集群内部的rs1,rs2,然后由rs1,rs2分别处理。client为客户端测试机器,可以为任意操作系统。 4台服务器的操作系统和网络配置分别为: vs1: RedHat 6.2, Kernel 2.2.19 vs1: eth0 192.168.0.1 vs1: eth0:101 192.168.0.101 rs1: RedHat 6.2, Kernel 2.2.14 rs1: eth0 192.168.0.3

rs1: dummy0 192.168.0.101 rs2: RedHat 6.2, Kernel 2.2.14 rs2: eth0 192.168.0.4 rs2: dummy0 192.168.0.101 client: Windows 2000 client: eth0 192.168.0.200 其中,192.168.0.101是允许用户访问的IP。 虚拟服务器的集群配置 大部分的集群配置工作都在虚拟服务器vs1上面,需要下面的几个步骤: 重新编译内核。 首先,下载最新的Linux内核,版本号为 2.2.19,下载地址为:https://www.sodocs.net/doc/174279069.html,/,解压缩后置于/usr/src/linux目录下。 其次需要下载LVS的内核补丁,地址为: https://www.sodocs.net/doc/174279069.html,/software/ipvs-1.0.6-2.2.19.tar.gz。这里注意,如果你用的Linux内核不是2.2.19版本的,请下载相应版本的LVS内核补丁。将ipvs-1.0.6-2.2.19.tar.gz解压缩后置于/usr/src/linux 目录下。 然后,对内核打补丁,如下操作: [root@vs2 /root]# cd /usr/src/linux [root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19. patch 下面就是重新配置和编译Linux的内核。特别注意以下选项: 1 Code maturity level options---> * [*]Prompt for development and/or incomplete code/drivers 2 Networking部分: [*] Kernel/User netlink socket

linux 集群登陆及投算作业-改2014.8.30

一、登陆到linux集群 (1)登录管理节点 登陆linux集群分为shell字符界面登陆和vnc图形界面登陆。首先在个人电脑安装Xmanage和RealVNC软件,见群共享。 字符界面登陆用到xshell工具,双击打开xshell工具,输入ssh 114.213.8.199回车 然后输入用户名和密码,登陆到linux集群的管理节点mu01。

(2)修改登录密码 普通用户更改密码,在登录服务器mu01管理节点后,输入ssh cu01,进入cu01节点,然后输入yppasswd命令来修改密码,这样所有节点密码都会自动修改。(注:需输入两次新密码,输入时不会显示)

(3)上传、下载文件 点击绿色的new file transfer按钮打开xftp工具 左侧为本地硬盘,右侧为linux用户目录。打开本地硬盘,右键单击需要上传的文件或文件夹,选择upload即可把文件上传到linux用户目录下。

下载文件与上传相反,在linux用户目录下选择要下载的文件或文件夹,右键选择download即可下载文件到本地硬盘。 (4)启动VNC 由于comsol,fluent,matlab,abaqus软件都是图形界面软件,所以建议用以下vnc图形界面方式登陆cu01-cu04计算节点。 在第一次用vnc图形界面登陆时,先用xshell 登陆到字符界面下设置本账户的vnc图形界面,xshell登陆后先直接运行vncserver开启vnc功能,此时会提示输入密码,输入将要设置的密码,注意此密码是vnc的密码,与账户密码无关(建议设置与账户相同的密码),注意输入密码时没有显示。 用vncserver –list查看分配到的vnc号,如下记住:1

linux安装weblogic10集群

Weblogic10集群负载均衡安装和配置 1、集群系统架构 操作系统: linux as4 u8 Weblogic版本 Weblogic10 注意:有工作流或MQ时要单独安装,不要放到集群中 2、系统整体架构 2.1、Weblogic方案:(建议服务器有4G以上的内存) 一台管理服务器:安装weblogic10 管理节点、受管节点。 二至五台应用服务器节点:安装Weblogic10 受管节点。 一台工作流服务器:安装WebSphere Application Server。 一台MQ服务器:安装WebSphere Application Server。 2.2、本例中的部署如下所示: 管理节点和受管节点安装在主机 JWZHYY1,另一个受管节点单独安装主机名为JWZHYY2,组成一个集群,通过代理服务器来完成负载均衡。 3、集群的安装 3.1、安装集群的先决条件 注意,必须在每个服务器中编辑/etc/hosts文件使群集的服务器之间能够互相使用机器名访问。保证每一台应用服务器都可以使用ping 群集应用服务器名称来访问,实例文件/etc/hosts内容如下 127.0.0.1 localhost.localdomain localhost #本机 192.168.1.3 https://www.sodocs.net/doc/174279069.html, jwzhyy1 #节点1 192.168.1.4 https://www.sodocs.net/doc/174279069.html, jwzhyy2 #节点2 192.168.1.8 https://www.sodocs.net/doc/174279069.html, jwzhdb1 #数据库1 192.168.1.9 https://www.sodocs.net/doc/174279069.html, jwzhdb2 #数据库2 以 root 用户身份登录并在每个主机上配置 Linux 内核参数。 cat >> /etc/sysctl.conf >>EOF kernel.shmall = 2097152 kernel.shmmax = 4294967295 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 65536 net.ipv4.ip_local_port_range = 1024 65000 net.core.rmem_default=262144 net.core.wmem_default=262144

DM8集群部署方案之读写分离集群Linux(2节点)

DM8集群部署方案之读写分离集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (9) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

浅谈Linux集群的行业应用

浅谈Linux集群的行业应用 据最近公布的数据显示,世界500强超级计算机系统中,使用Linux操作系统的。已占到了280席,而在我国,越来 越多行业中,Linux高性能计算产品也正得到广泛的应用。 所谓Linux集群,就是利用商品化的工业标准互联网络 将各种普通Linux服务器连接起来,通过特定的方法向用户 提供更高的系统计算性能、存储性能和I/O性能,也就是具备单一系统映像(SSI)特征的分布式存储MIMD(多指令流多数据流)并行计算机系统。Linux有大量的集群系统可供选择, 适合于不同的用途和需要。 通过几十甚至几百个运行Linux操作系统的计算节点, 组成一个庞大的虚拟计算机,提供强大的并行运算能力,而价格却比传统小型机要便宜得多。 高可用性集群也可以在其节点之间均衡用户负载,同时仍试图维持高可用性程度。同样,可以从要编入应用程序的集群中找到一个并行集群,它可以在节点之间执行负载均衡。 目前,Linux集群在石油行业的应用主要集中在地震资料处理和油藏数值模拟两大领域。因数据量大、计算量大、通信量大等行业特点,地震资料处理成为Linux集群发挥自身 优势最主要的平台。

最早,辽河油田、新疆油田、青海油田等国内企业采用了IBM公司具有Linux集群技术的LCl300系统。2002年10月,中国石油东方地球物理公司涿州物探研究院将曙光4000L Linux/PC Cluster作为应用平台。2004年涿州物探研究院和新疆油田公司把由IBMeServer BladeCenter刀片服务器组成的Linux集群用于石油勘探地震资料处理的高性能计算。两地搭建的高性能计算平台以该刀片服务器作为计算节点,分别有194个节点和200多个节点,主要负责地震勘探资料处理。同年7月,东方地球物理公司研究院大港分院采用HPProLiant BL20P G2刀片式服务器作为计算节点的高性能计算集群系统正式投产。该系统包括119个HP ProLiant BL20P 计算节点和14个ProLiant DL380G2 I/O节点,以集群技术组成的超级并行计算机作为地震资料处理的主机系统。整个系统共133个节点、266个处理器,安装了CGG、Geodepth等先进的处理软件,能够提供更精准的地构造及地下成像。 2006年10月,国内最大规模的集群地震资料处理系统在大庆油田勘探开发研究院正式投入使用。该地震资料处理系统采用了中国惠普公司开发出的刀片服务器集群架构,集成了692台惠普公司的第三代服务器产品――HPBL20PG3、HPDL380G3和HPDL580G3服务器,选用了1432个Intel至强中国刀片服务器集群系统,是国内处理规模最大、系统配置最优、技术性能最好的地震资料处理CPU。

相关主题