基于CentOS 7.3安装部署jewel版本Ceph集群实战演练(3)

我在部署的时候出了个小问题,有一个OSD没成功(待所有OSD部署完毕后,再重新部署问题OSD即可解决),如果不出意外的话,集群状态应该如下:
1234567891011 [root@ceph-1 cluster]# ceph -s
    cluster 0248817a-b758-4d6b-a217-11248b098e10
    health HEALTH_WARN
            too few PGs per OSD (21 < min 30)
    monmap e1: 3 mons at {ceph-1=192.168.57.222:6789/0,ceph-2=192.168.57.223:6789/0,ceph-3=192.168.57.224:6789/0}
            election epoch 22, quorum 0,1,2 ceph-1,ceph-2,ceph-3
    osdmap e45: 9 osds: 9 up, 9 in
            flags sortbitwise
      pgmap v82: 64 pgs, 1 pools, 0 bytes data, 0 objects
            273 MB used, 16335 GB / 16336 GB avail
                  64 active+clean

12.去除这个WARN,只需要增加rbd池的PG就好:
[root@ceph-1 cluster]# ceph osd pool set rbd pg_num 128
set pool 0 pg_num to 128
[root@ceph-1 cluster]# ceph osd pool set rbd pgp_num 128
set pool 0 pgp_num to 128
[root@ceph-1 cluster]# ceph -s
    cluster 0248817a-b758-4d6b-a217-11248b098e10
    health HEALTH_ERR
            19 pgs are stuck inactive for more than 300 seconds
            12 pgs peering
            19 pgs stuck inactive
    monmap e1: 3 mons at {ceph-1=192.168.57.222:6789/0,ceph-2=192.168.57.223:6789/0,ceph-3=192.168.57.224:6789/0}
            election epoch 22, quorum 0,1,2 ceph-1,ceph-2,ceph-3
    osdmap e49: 9 osds: 9 up, 9 in
            flags sortbitwise
      pgmap v96: 128 pgs, 1 pools, 0 bytes data, 0 objects
            308 MB used, 18377 GB / 18378 GB avail
                103 active+clean
                  12 peering
                  9 creating
                  4 activating

[root@ceph-1 cluster]# ceph -s
    cluster 0248817a-b758-4d6b-a217-11248b098e10
    health HEALTH_OK
    monmap e1: 3 mons at {ceph-1=192.168.57.222:6789/0,ceph-2=192.168.57.223:6789/0,ceph-3=192.168.57.224:6789/0}
            election epoch 22, quorum 0,1,2 ceph-1,ceph-2,ceph-3
    osdmap e49: 9 osds: 9 up, 9 in
            flags sortbitwise
      pgmap v99: 128 pgs, 1 pools, 0 bytes data, 0 objects
            310 MB used, 18377 GB / 18378 GB avail
                128 active+clean

至此,集群部署完毕。

13.config推送

请不要使用直接修改某个节点的/etc/ceph/ceph.conf文件的方式,而是去部署节点(此处为ceph-1:/root/cluster/ceph.conf)目录下修改。因为节点到几十个的时候,不可能一个个去修改的,采用推送的方式快捷安全!
修改完毕后,执行如下指令,将conf文件推送至各个节点:

[root@ceph-1 cluster]# ceph-deploy --overwrite-conf config push ceph-1 ceph-2 ceph-3

此时,需要重启各个节点的monitor服务,见下一节。

14.mon&osd启动方式

#monitor start/stop/restart
#ceph-1为各个monitor所在节点的主机名。
systemctl start ceph-mon@ceph-1.service 
systemctl restart ceph-mon@ceph-1.service
systemctl stop ceph-mon@ceph-1.service
#OSD start/stop/restart 
#0为该节点的OSD的id,可以通过`ceph osd tree`查看
systemctl start/stop/restart ceph-osd@0.service
[root@ceph-1 cluster]# ceph osd tree
ID WEIGHT  TYPE NAME      UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 17.94685 root default                                     
-2  5.98228    host ceph-1                                   
 0  1.99409        osd.0        up  1.00000          1.00000 
 1  1.99409        osd.1        up  1.00000          1.00000 
 8  1.99409        osd.2        up  1.00000          1.00000 
-3  5.98228    host ceph-2                                   
 2  1.99409        osd.3        up  1.00000          1.00000 
 3  1.99409        osd.4        up  1.00000          1.00000 
 4  1.99409        osd.5        up  1.00000          1.00000 
-4  5.98228    host ceph-3                                   
 5  1.99409        osd.6        up  1.00000          1.00000 
 6  1.99409        osd.7        up  1.00000          1.00000 
 7  1.99409        osd.8        up  1.00000          1.00000

更多Ceph相关教程见以下内容

在 CentOS 7.1 上安装分布式存储系统 Ceph 

Ceph环境配置文档 PDF  

CentOS7下部署Ceph集群(版本10.2.2)

Ceph的安装过程  

如何升级Ceph版本及注意事项 

HOWTO Install Ceph On FC12, FC上安装Ceph分布式文件系统  

实验环境Ceph 9.2.1部署笔记

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/1fdd39d0ff5d89b73a88d3565f3b2489.html