Update Time : Mon Mar 27 00:33:48 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Name : localhost:1 (local to host localhost)
UUID : 5e187c59:ab9f8970:a941e8f4:3f5f0feb
Events : 19
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
0 8 17 - faulty /dev/sdb1
##现在 0 8 17 - faulty /dev/sdb1可以看出/dev/sdb1损坏了,我们移除,换块新的
##移除/dev/sdb1
(mdadm -r /dev/md1 /dev/sdb1)
[root@localhost ~]# mdadm -r /dev/md1 /dev/sdb1
mdadm: hot removed /dev/sdb1 from /dev/md1
##添加新磁盘/dev/sdd1
(mdadm -a /dev /md1 /dev/sdd1)
[root@localhost ~]# mdadm -a /dev/md1 /dev/sdd1
mdadm: added /dev/sdd1
##在添加空闲磁盘把/dev/sdb1添加上
[root@localhost ~]# mdadm -a /dev/md1 /dev/sdb1
mdadm: added /dev/sdb1
##查看一下md1详细情况
[root@localhost ~]#mdadm -d /dev/md1
Number Major Minor RaidDevice State
2 8 49 0 active sync /dev/sdd1
1 8 33 1 active sync /dev/sdc1
3 8 17 - spare /dev/sdb1
##这种属于后面添加空闲磁盘。创建md的时候,可以一起创建空闲磁盘如
mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdc1 /dev/sdd1 -x 1 /dev/sdb1
这样就可以把/dev/sdb1添加为空闲磁盘
-----------------------------------------------------------
7)RAID的停用和重新装配
1,RAID的停用
mdadm -S /dev/md#
[root@localhost ~]# mdadm -S /dev/md1
mdadm: stopped /dev/md1
2,RAID重新装配 (本来有几块就要装配几块)
mdadm -A /dev/md1 /dev/sdb1 /dev/sdd1 /dev/sdc1
[root@localhost ~]# mdadm -A /dev/md1 /dev/sdb1 /dev/sdd1 /dev/sdc1
mdadm: /dev/md1 has been started with 2 drives and 1 spare.
8)RAID 的扫描系统上raid
mdadm -D -scan
[root@localhost ~]# mdadm -D -scan
ARRAY /dev/md1 metadata=1.2 spares=1 name=localhost:1 UUID=5e187c59:ab9f8970:a941e8f4:3f5f0feb
###mdadm -D -scan > /etc/mdadm.conf
把扫描的保存到mdadm配置文件中,重新装置就不要添加那些磁盘设备
##如:mdadm -S /dev/md1 停止md1
重新装配:mdadm -A /dev/md1
9)格式化,挂载使用
格式化:mke2fs /dev/md1
挂载:mount /dev/md1 /mnt