# yum grouplist #是否存在High Availability和High Availability Management #中文环境下则为‘高可用性’和‘高可用性管理’
如成功,则安装RHCS HA组件:
# yum –y groupinstall "High Availability Management" "High Availability" #中文环境下为:# yum –y groupinstall "高可用性" "高可用性管理"
安装完成后,如果集群需要使用共享存储,则需要额外安装配置lvm2-cluster:
# yum -y install lvm2-cluster
配置lvm2-cluster:
编辑/etc/lvm/lvm.conf文件,修改:locking_type = 3
启动lvm2-cluster服务:
# service clvmd start # chkconfig clvmd on
RHCS集群配置luci是RHCS默认的集群管理工具,可以完成集群的创建及管理工作。
A、集群启动:
在两台服务器上分别启动集群软件:
# service ricci start #启动集群软件 # chkconfig ricci on #设置集群软件开机自动启动 # passwd ricci #设置集群节点密码
在其中一台服务器上安装luci集群管理工具并启动:
# service luci start #启动集群管理工具 # chkconfig luci on #设置luci开机启动
B、集群配置: 1、集群创建(节点添加)启动luci服务后即可使用浏览器打开luci进行集群创建和管理了。地址为:
https://35.1.1.250:8084 #用户名和密码与系统root账号相同
点击create创建集群:
配置说明:
cluster name:给集群添加一个命名即可。
然后分别添加两个节点:
Use the Same Password for All Nodes:所有节点使用相同的节点管理密码,建议勾选。
Node Name:节点名,与/etc/hosts文件中心跳IP的对应命名相同即可。也可以直接填写心跳IP。(两节点分别填写)
Password:节点管理密码,随便设置,建议与系统root密码相同。
Ricci Hostname:ricci主机名,默认与节点名相同,不用更改。
Ricci Port:ricci端口,默认11111即可。
节点添加完成后继续配置:
Download Packages:使用网络下载所需的相关包。
Use Locally Installed Packages:使用本地已安装的包,选择此项。
Reboot Nodes Before Joining Cluster:主机节点加入集群前先重启,建议不勾选。
Enable Shared Storage Support:共享存储支持,如果需要使用共享存储,需要勾选此项。(此项需要系统安装lvm2-cluster并启动clvmd服务)
点击Create Cluster创建集群,ricci会自动启动添加的节点服务器上的集群软件(cman和rgmanager),成功后即可完成集群的创建和节点的添加。
集群创建完成后如图:
2、Fence设备添加Fence设备可以防止集群资源(例如文件系统)同时被多个节点占有,保护了共享数据的安全性和一致性节,同时也可以防止节点间脑裂的发生。(Fence设备并非不可缺少,通常也可以使用仲裁盘代替Fence设备,本项目使用Fence方案)
切换到“Fence Devices”选项,“Add”添加两个Fence设备,对于华为浪潮等国产服务器,服务器本身的IPMI管理系统(MGMT管理口)即可充当Fence设备。一添加其中一个Fence设备为例:
选择IPMI Lan:
Fence Type:Fence类型,本项目使用IPMI。;
Name:给Fence设备取个名字;
IP Address or Hostname:Fence设备IP地址或者设备名,这里直接填IP地址,即服务器管理口IP;
Login:Fence设备登陆账号,华为服务器通常是root/Huawei12#$,浪潮服务器可能是admin/admin,或者root/superuser等等。
Password:Fence设备登陆密码,如上;
Password Script:密码脚本,无视;
Authentication Type:认证类型,选择密码认证;
其他的可以不用管了,“submit”提交即可。
两个Fence均创建完成后如图:
3、Failover Domains失败转移域创建Failover Domains是配置集群的失败转移域,通过失败转移域可以将服务和资源的切换限制在指定的节点间。切换到“Failover Domains”选项,点击“add”,配置如下:
Name:给失败转移域策略取一个名字;
prioritized: 是否启用域成员节点优先级设置,这里启用;
Restricted:是否只允许资源在指定的节点间切换,这里只有两个节点互相切换,是否启用都行;
No Failback:是否启用故障回切功能,即当高优先级节点失效,资源切换到其他节点,而高优先级节点重新恢复正常时,资源是否再次切换回高优先级节点,这里选择不回切,即启用No Failback;
Member:选择失败转移域的成员,本项目只有两个节点,均勾选;
Priority:成员节点优先级,值越低优先级越高。高优先级通常作为主节点。
点击“Create”完成失败转移域创建,完成后如图:
4、添加资源Resources是集群的核心,主要包含服务脚本、IP地址、文件系统等,本项目只涉及IP地址、文件系统和脚本的添加。
IP地址添加
“Add”选择添加IP Address:
IP Address:IP地���,通常作为集群浮动IP;
Netmask Bits:子网掩码,本项目中是255.255.255.0,即24;
其他默认即可。点击“Submit”提交。
文件系统添加
由于之前我们将使用的共享存储做成了lvm逻辑卷系统,因此在添加文件系统时需要先添加HA LVM,注意启用HA LVM需要确保lvm2-cluster服务启动。之前创建的逻辑卷组为Oraclevg,逻辑卷为oraclelv,因此添加HA LVM如下:
Name:给HA LVM取个名字;
Volume Group Name:共享存储的卷组名,这里为oraclevg;
Logical Volume Name:需要添加的逻辑卷名,这里为oraclelv;
Fence the Node if It is Unable to Clean Up LVM Tags:当节点LVM标记无法清除时认为节点脑裂,这里不启用。
点击“Submit”提交。
然后再添加文件系统:
Name:给文件系统取个名字;
Filesystem Type:指定文件系统类型,之前创建逻辑卷时将其格式化为ext4格式了,可以选择ext4,也可以选Autodetect自动检测;
Mount Point:设备挂载位置。选择之前创建好的目录/oradata,逻辑卷将自动挂载在当前主节点的该目录上;
Device,FS Label, or UUID:需要挂载的设备,本项目使用的是LVM逻辑卷,所以这里填写逻辑卷路径即可:/dev/oraclevg/oraclelv;
Mount Options和Filesystem ID无视即可。
Force Unmount:是否强制卸载,集群切换时挂载的设备有时候会因为资源占用等问题无法卸载,导致集群切换失败,这里启用强制卸载,可以防止此问题发生;
Force fsck:是否强制文件系统检查,文件系统检查会拖慢集群切换时间,这里不启用;
Enable NFS daemon and lockd workaround:启用NFS守护进程和上锁的解决方法,无视;
Use Quick Status Checks:使用快速状态检查,无视;
Reboot Host Node if Unmount Fails:设备卸载失败时是否重启该节点,同样可以防止设备卸载失败导致集群切换失败的问题,可以勾选,这里无视。
点击“Submit”提交。