按输入框要求,输入集群名称,添加每个节点的主机名、密码,Ricci Hostname和RicciPort都默认, 勾选Use Locally Installed Packages,我好像Reboot Nodes Before Joining Cluster、Enable Shared Storage Support都没有勾选,后来又参考了下文档,大家还是把Enable Shared Storage Support勾选上吧,最后点击Create Cluster创建集群。
2)在各节点上查看下集群情况
[root@node11 /]# clustat
可以看到各节点状态都是online,说明配置成功。
六、创建GFS2集群文件系统
1. 在两个节点上分别安装lvm2-cluster、gfs2-utils
[root@node11 /]# yum install –y lvm2-cluster gfs2-utils
[root@node11 /]# chkconfig clvmd on
启动集群:
[root@node11 /]# lvmconf –enable-cluster
重新加载集群:
[root@node11 /]# service clvmd restart
2. 在节点上创建LVM卷
[root@node11 /]# pvcreate /dev/sdb
[root@node11 /]# vgcreate vg1 /dev/sdb
[root@node11 /]# lvcreate –l 100%FREE –n lv1 vg1
创建好LVM卷后,我们可以通过下面命令查看下lv状态:
[root@node11 /]# lvdisplay
另一个节点上执行下lvmconf –enable-cluster命令,查看lvdisplay,也可以看到相应的信息,不需要另外去create LVM。
3. 格式化成gfs2文件系统
在其中的一个节点执行:
[root@node11 /]# mkfs.gfs2 -p lock_dlm -t myclusterCH:clusterdata -j 3 /dev/vg1/lv1
-p:定义为 DLM锁方式,如果不加此参数,挂载的分区就像ext4格式,信息不能同步。
-t:集群名和自定义文件系统标志名,也可以是共享卷名
-j:GFS分区中最多支持多少个节点同时挂载,通常设定值为节点数+1
4. 在两个节点上分别挂载
[root@node11 /]# mkdir /mnt/clusterdata
[root@node11 /]# mount –t gfs2 /dev/vg1/lv1 /mnt/clusterdata
这样我们在两个节点里的clusterdata里进行文件新增修改,都会同步了。
5. 设置两节点开机自动登录target
[root@node11 rc.d]# vi rc.loginsdb
将登录target内容写成一个脚本,这里我们取名rc.loginsdb,rc.loginsdb内容如下:
[root@node11 rc.d]# cat rc.loginsdb
#!/bin/bash
iscsiadm -m node -T iqn.2015-11-05:storage -p 192.168.1.120 -l
记得一定要赋予权限:
[root@node11 rc.d]# chmod a+x rc.loginsdb
将该脚本文件链接到rc.loginsdb中,并且保证启动时优先于等会要安装的cman、cmanager等服务:
[root@node11 rc.d]# ln -s /etc/rc.d/rc.loginsdb S14loginsdb
6. 最后,记得设置一下两节点开机自动挂载
在rc.local里添加上:
mount –t gfs2 /dev/vg1/lv1 /mnt/clusterdata