手动处理
首先在确定要作为secondary的节点上面切换成secondary并放弃该资源的数据
drbdadm secondary <resource>
drbdadm connect --discard-my-data <resource>
在要作为primary的节点重新连接secondary(如果这个节点当前的连接状态为WFConnection的话,可以省略)
drbdadm connect <resource>
当作完这些动作之后,从新的primary到secondary的re-synchnorisation会自动开始。
三、DRBD的复制模式及复制协议
1、复制模式
单主模式:
在单主模式下, 任何资源在任何特定的时间,集群中只存��一个主节点。 正是因为这样在集群中
只能有一个节点可以随时操作数据,这种模式可用在任何的文件系统上( EXT3、 EXT4、 XFS等等)。
双主模式:
在双主模式下,任何资源在任何特定的时间,集群中都存在两个主节点。犹豫双方数据存在并发
的可能性,这种模式需要一个共享的集群文件系统,利用分布式的锁机制进行管理,如 GFS 和
OCFS2。部署双主模式时, DRBD 是负载均衡的集群,这就需要从两个并发的主节点中选取一个首选的
访问数据。这种模式默认是禁用的,如果要是用的话必须在配置文件中进行声明。(DRBD8.0 之后支持)
2、复制协议
协议A:
数据一旦写入磁盘并发送到网络中就认为完成了写入操作。
在一个节点发生故障时,可能发生远程节点上的数据可能仍在发送队列导致数据丢失。
协议B:
收到接收确认就认为完成了写入操作。
数据丢失可能发生在参加的两个节点同时故障的情况下。
协议C:
收到写入确认就认为完成了写入操作。无数据丢失,主流配置,I/O 吞吐量依赖于网络带宽。
Linux 高可用(HA)集群之DRBD详解
CentOS 6.3下DRBD安装配置笔记