五、配置 heartbeat(crm 资源管理器)
1.配置文件说明
[root@node1 ~]# cd /etc/ha.d/
[root@node1 ha.d]# ls
harc rc.d README.config resource.d shellfuncs shellfuncs.rpmsave、
说明:安装好的heartbeat默认是没有配置文件的,但提供了配置文件样本
[root@node1 ha.d]# cd /usr/share/doc/heartbeat-2.1.4/
[root@node1 heartbeat-2.1.4]# ls
apphbd.cf COPYING faqntips.txt HardwareGuide.html hb_report.txt README rsync.txt
authkeys COPYING.LGPL GettingStarted.html HardwareGuide.txt heartbeat_api.html Requirements.html startstop
AUTHORS DirectoryMap.txt GettingStarted.txt haresources heartbeat_api.txt Requirements.txt
ChangeLog faqntips.html ha.cf hb_report.html logd.cf rsync.html
[root@node1 heartbeat-2.1.4]# cp authkeys ha.cf /etc/ha.d/
说明:其中有两个配置文件是我们需要的分别为,authkeys、ha.cf
authkeys #是节点之间的认证key文件,我们不能让什么服务器都加入集群中来,加入集群中的节点都是需要认证的
ha.cf #heartbeat的主配置文件
2.配置authkeys文件
[root@node1 ha.d]# dd if=/dev/random bs=512count=1| openssl md5 #生成密钥随机数
0+1records in
0+1records out
128bytes (128B) copied, 0.000214seconds, 598kB/s
a4d20b0dd3d5e35e0f87ce4266d1dd64
[root@node1 ha.d]# vim authkeys
#auth 1
#1 crc
#2 sha1 HI!
#3 md5 Hello!
auth 1
1 md5 a4d20b0dd3d5e35e0f87ce4266d1dd64
[root@node1 ha.d]# chmod 600 authkeys #修改密钥文件的权限为600
[root@node1 ha.d]# ll
总计 56
-rw------- 1 root root 691 08-07 16:45 authkeys
-rw-r--r-- 1 root root 10539 08-07 16:42 ha.cf
-rwxr-xr-x 1 root root 745 2010-03-21 harc
drwxr-xr-x 2 root root 4096 08-07 16:21 rc.d
-rw-r--r-- 1 root root 692 2010-03-21 README.config
drwxr-xr-x 2 root root 4096 08-07 16:21 resource.d
-rw-r--r-- 1 root root 7862 2010-03-21 shellfuncs
-rw-r--r-- 1 root root 7862 2010-03-21 shellfuncs.rpmsave
3.配置ha.cf文件
[root@node1 ha.d]# vim ha.cf
主要修改三处(其它都可以默认):
(1).修改心跳信息的传播方式(这里是组播)
mcast eth0 225.100.100.100 694 1 0
(2).配置集群中的节点数
node node1.test.com
node node2.test.com
(3).启用crm资源管理器
crm respawn
4.复制以上将个配置文件到node2上
[root@node1 ha.d]# scp authkeys ha.cf haresources node2:/etc/ha.d/
authkeys 100% 691 0.7KB/s00:00
ha.cf 100% 10KB 10.4KB/s00:00
[root@node1 ha.d]# ssh node2
Last login: Wed Aug 7 16:13:44 2013 from node1.test.com
[root@node2 ~]# ll /etc/ha.d/
总计 56
-rw------- 1 root root 691 08-07 17:12 authkeys
-rw-r--r-- 1 root root 10614 08-07 17:12 ha.cf
-rwxr-xr-x 1 root root 745 2010-03-21 harc
drwxr-xr-x 2 root root 4096 08-07 16:24 rc.d
-rw-r--r-- 1 root root 692 2010-03-21 README.config
drwxr-xr-x 2 root root 4096 08-07 16:24 resource.d
-rw-r--r-- 1 root root 7862 2010-03-21 shellfuncs
-rw-r--r-- 1 root root 7862 2010-03-21 shellfuncs.rpmsave
5.启动node1与node2
[root@node1 ha.d]# ssh node2 "service heartbeat start"
Strting High-Availability services:
[确定]
logd is already stopped
[root@node1 ha.d]# service heartbeat start
Starting High-Availability services:
2013/08/07_17:19:22 INFO: Resource is stopped
[确定]
6.查看一下端口
node1:
[root@node1 ~]# netstat -ntulp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:615 0.0.0.0:* LISTEN 2553/rpc.statd
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 2514/portmap
tcp 0 0 127.0.0.1:631 0.0.0.0:* LISTEN 2848/cupsd
tcp 0 0 0.0.0.0:5560 0.0.0.0:* LISTEN 4592/mgmtd
tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN 3009/sendmail: acce
tcp 0 0 :::22 :::* LISTEN 2835/sshd
udp 0 0 225.100.100.100:694 0.0.0.0:* 4582/heartbeat: wri
udp 0 0 0.0.0.0:609 0.0.0.0:* 2553/rpc.statd
udp 0 0 0.0.0.0:612 0.0.0.0:* 2553/rpc.statd
udp 0 0 0.0.0.0:5353 0.0.0.0:* 3138/avahi-daemon:
udp 0 0 0.0.0.0:41709 0.0.0.0:* 4582/heartbeat: wri
udp 0 0 0.0.0.0:111 0.0.0.0:* 2514/portmap
udp 0 0 0.0.0.0:631 0.0.0.0:* 2848/cupsd
udp 0 0 0.0.0.0:53247 0.0.0.0:* 3138/avahi-daemon:
udp 0 0 :::50187 :::* 3138/avahi-daemon:
udp 0 0 :::5353 :::* 3138/avahi-daemon:
node2:
[root@node2 ~]# netstat -ntulp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:618 0.0.0.0:* LISTEN 2556/rpc.statd
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 2517/portmap
tcp 0 0 127.0.0.1:631 0.0.0.0:* LISTEN 2852/cupsd
tcp 0 0 0.0.0.0:5560 0.0.0.0:* LISTEN 3718/mgmtd
tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN 3014/sendmail: acce
tcp 0 0 :::22 :::* LISTEN 2839/sshd
udp 0 0 0.0.0.0:50222 0.0.0.0:* 3143/avahi-daemon:
udp 0 0 225.100.100.100:694 0.0.0.0:* 3708/heartbeat: wri
udp 0 0 0.0.0.0:41152 0.0.0.0:* 3708/heartbeat: wri
udp 0 0 0.0.0.0:612 0.0.0.0:* 2556/rpc.statd
udp 0 0 0.0.0.0:615 0.0.0.0:* 2556/rpc.statd
udp 0 0 0.0.0.0:5353 0.0.0.0:* 3143/avahi-daemon:
udp 0 0 0.0.0.0:111 0.0.0.0:* 2517/portmap
udp 0 0 0.0.0.0:631 0.0.0.0:* 2852/cupsd
udp 0 0 :::44582 :::* 3143/avahi-daemon:
udp 0 0 :::5353 :::* 3143/avahi-daemon:
说明:从上面的端口我们可以看出,我们已经成功的启动了crm资源管理器,crm资源管理器的默认端口是5560。
7.查看一下集群状态
node1,node2:
[root@node ~]# crm_mon
说明:从上面的集群状态中我们可以看到,集群中有两个节点,分别为node1和node2状态是online全部在线,我们还可以看到,DC是node2。两个节点的资源是0,说明在我们这个集群中还没有资源。下面我们来详细的说明一下!