基于CentOS6.7下的RHCS共享存储集群搭建(2)

按输入框要求,输入集群名称,添加每个节点的主机名、密码,Ricci Hostname和RicciPort都默认, 勾选Use Locally Installed Packages,我好像Reboot Nodes Before Joining Cluster、Enable Shared Storage Support都没有勾选,后来又参考了下文档,大家还是把Enable Shared Storage Support勾选上吧,最后点击Create Cluster创建集群。

2)在各节点上查看下集群情况

[root@node11 /]# clustat

可以看到各节点状态都是online,说明配置成功。

六、创建GFS2集群文件系统

1. 在两个节点上分别安装lvm2-cluster、gfs2-utils

[root@node11 /]# yum install –y lvm2-cluster gfs2-utils

[root@node11 /]# chkconfig clvmd on

启动集群:

[root@node11 /]# lvmconf –enable-cluster

重新加载集群:

[root@node11 /]# service clvmd restart

2. 在节点上创建LVM卷

[root@node11 /]# pvcreate /dev/sdb

[root@node11 /]# vgcreate vg1 /dev/sdb

[root@node11 /]# lvcreate –l 100%FREE –n lv1 vg1

创建好LVM卷后,我们可以通过下面命令查看下lv状态:

[root@node11 /]# lvdisplay

另一个节点上执行下lvmconf –enable-cluster命令,查看lvdisplay,也可以看到相应的信息,不需要另外去create LVM。

3. 格式化成gfs2文件系统

在其中的一个节点执行:

[root@node11 /]# mkfs.gfs2 -p lock_dlm -t myclusterCH:clusterdata -j 3 /dev/vg1/lv1

-p:定义为 DLM锁方式,如果不加此参数,挂载的分区就像ext4格式,信息不能同步。

-t:集群名和自定义文件系统标志名,也可以是共享卷名

-j:GFS分区中最多支持多少个节点同时挂载,通常设定值为节点数+1

4. 在两个节点上分别挂载

[root@node11 /]# mkdir /mnt/clusterdata

[root@node11 /]# mount –t gfs2 /dev/vg1/lv1 /mnt/clusterdata

这样我们在两个节点里的clusterdata里进行文件新增修改,都会同步了。

5. 设置两节点开机自动登录target

[root@node11 rc.d]# vi rc.loginsdb

将登录target内容写成一个脚本,这里我们取名rc.loginsdb,rc.loginsdb内容如下:

[root@node11 rc.d]# cat rc.loginsdb

#!/bin/bash

iscsiadm -m node -T iqn.2015-11-05:storage -p 192.168.1.120 -l

记得一定要赋予权限:

[root@node11 rc.d]# chmod a+x rc.loginsdb

将该脚本文件链接到rc.loginsdb中,并且保证启动时优先于等会要安装的cman、cmanager等服务:

[root@node11 rc.d]# ln -s /etc/rc.d/rc.loginsdb S14loginsdb

6. 最后,记得设置一下两节点开机自动挂载

在rc.local里添加上:

mount –t gfs2 /dev/vg1/lv1 /mnt/clusterdata

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/0182f2d873694c7a303fd424817b2c84.html