Ceph 文件系统 CephFS 的实战配置,等你来学习 -- (2)

默认情况下,每个cephfs文件系统的MDS都是以冷备模式配置的。有时候为了获取更高的性能,可以启用多个活动的MDS守护进程,也就是多主模式,它们将彼此分担元数据的工作负载。

当cephfs的性能出现在MDS上时,就应该配置多个活动的MDS。通常是多个客户机应用程序并行的执行大量元数据操作,并且它们分别有自己单独的工作目录。这种情况下很适合使用多主MDS模式。

配置MDS多主模式
每个cephfs文件系统都有一个max_mds设置,可以理解为它将控制创建多少个主MDS。注意只有当实际的MDS个数大于或等于max_mds设置的值时,mdx_mds设置才会生效。例如,如果只有一个MDS守护进程在运行,并且max_mds被设置为两个,则不会创建第二个主MDS。

[root@cephnode01 ~]# ceph -s cluster: id: b6e6146b-c0c0-4058-927a-762b6a98d463 health: HEALTH_OK services: mon: 3 daemons, quorum cephnode01,cephnode02,cephnode03 (age 20h) mgr: cephnode01(active, since 20h), standbys: cephnode02, cephnode03 mds: cephfs:1 {0=cephnode01=up:active} 2 up:standby osd: 9 osds: 9 up (since 19h), 9 in (since 19h) rgw: 1 daemon active (cephnode01) data: pools: 7 pools, 608 pgs objects: 262 objects, 5.3 KiB usage: 9.1 GiB used, 27 GiB / 36 GiB avail pgs: 608 active+clean io: client: 937 B/s wr, 0 op/s rd, 3 op/s wr ~]$ ceph fs set cephnode01 max_mds 2

1.3、配置备用MDS
即使有多个活动的MDS,如果其中一个MDS出现故障,仍然需要备用守护进程来接管。因此,对于高可用性系统,实际配置max_mds时,最好比系统中MDS的总数少一个。

但如果你确信你的MDS不会出现故障,可以通过以下设置来通知ceph不需要备用MDS,否则会出现insufficient standby daemons available告警信息:

# ceph fs set <fs> standby_count_wanted 0 还原单主MDS

2.1、设置max_mds

# ceph fs set cephfs max_mds 1

2.2 删除不需要的rank

ceph mds deactivate cephfs:2

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zysxxx.html