Linux RAID配置 和 LVM 分区配置

nas 协议 tcp/ip       用nfs,cifs等文件系统去管理 

san 协议   光纤协议

raid     redundant arrays of inexpensive disks   

磁盘阵列

raid 0    读写性能佳,坏了其中一块,数据挂掉,可靠性低(stripe条带化),磁盘利用率100%

raid 1    镜像备份,同一份资料完整的保存在多个磁盘上,写的性能不佳,可靠性高,读的性能还行,磁盘利用率50%


raid 10 先做raid 1 再做raid 0

disk 0    disk 1   raid 1

disk 2    disk 3   raid 1

disk 4    disk 5   raid 1


          然后把上面的三个raid1 做成raid0(条带)

raid 01 先做raid 0 再做raid 1
 
   raid 0     raid 0

disk 0    disk 3 

disk 1    disk 4 

disk 2    disk 5 


然后把上面的两个raid0 做成raid1 

raid 10和 raid01就安全可靠性上来说还是raid10好点,读写性能一样,磁盘利用率一样

raid 5

由三块磁盘做raid 5,磁盘利用率为2/3, 另块放校验数据,允许坏一块盘,数据可以利用校验值来恢复

软raid


--raid 的创建
用分区或者 虚拟机加磁盘来做


创建raid 0   
[root@dns ~]# mdadm --create /dev/md0 --level=0 --raid-devices=2 /dev/sdb1 /dev/sdc1
mdadm: array /dev/md0 started.

创建过程中可以用另一终端cat /proc/mdstat 去查看正在创建的状态信息

[root@dns ~]# mkfs.ext3 /dev/md0    --把创建好的raid设备md0格式化成ext3
[root@dns ~]# mount /dev/md0 /mnt/ --mount挂载使用

df -h查看大小验证磁盘利用率为百分之百

创建raid 5
[root@dns ~]# mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sdd1 /dev/sde1 /dev/sdf1
mdadm: array /dev/md1 started.


[root@dns ~]# mkfs.ext3 /dev/md1
[root@dns ~]# mount /dev/md1 /media/

df -h查看大小验证磁盘利用率三分之二


--------------------------------------------------
--raid的启停

[root@dns ~]# vim /etc/mdadm.conf   --手动编写raid的配置文件,此文件不存在,要手动建立,并写上
DEVICES /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 --把做了raid的分区写上来


[root@dns ~]# mdadm --detail --scan >> /etc/mdadm.conf
     --扫描当前raid的信息,并追加到配置文件里

DEVICES /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
ARRAY /dev/md0 level=raid0 num-devices=2 metadata=0.90 UUID=80dfef62:8eef41dd:4f463d64:f1917614
ARRAY /dev/md1 level=raid5 num-devices=3 metadata=0.90 UUID=3c416add:9fa78bcf:9b9e60ef:5f5de4da

停止raid设备

先umount 已经挂载的raid设备
然后使用命令停止
[root@dns ~]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[root@dns ~]# mdadm --stop /dev/md1
mdadm: stopped /dev/md1

启动raid设备 
1,有/etc/mdadm.conf配置文件的情况下
[root@dns ~]# mdadm -A /dev/md0
mdadm: /dev/md0 has been started with 2 drives.
[root@dns ~]# mdadm -A /dev/md1
mdadm: /dev/md1 has been started with 3 drives.

2,没有配置文件的情况下,手动把设备名写上就可以了
[root@dns ~]# mdadm -A /dev/md0 /dev/sdb1 /dev/sdc1
mdadm: /dev/md0 has been started with 2 drives.
[root@dns ~]# mdadm -A /dev/md1 /dev/sdd1 /dev/sde1 /dev/sdf1
mdadm: /dev/md1 has been started with 3 drives.


3,如果连设备名都不知道,可以去查看每个设备的raid信息,使用uuid把raid设备重新组合
[root@dns ~]# mdadm -E /dev/sdf1
/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 3c416add:9fa78bcf:9b9e60ef:5f5de4da --这里可以看到uuid的值,同一个raid里的设备的uuid值是一样的
Creation Time : Sat Jul 10 10:53:47 2010
     Raid Level : raid5
Used Dev Size : 1044096 (1019.80 MiB 1069.15 MB)
     Array Size : 2088192 (2039.59 MiB 2138.31 MB)
   Raid Devices : 3
Total Devices : 3
Preferred Minor : 1

Update Time : Sat Jul 10 11:06:17 2010
          State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
       Checksum : 189291a1 - correct
         Events : 2

Layout : left-symmetric
     Chunk Size : 64K

Number   Major   Minor   RaidDevice State
this     2       8       81        2      active sync   /dev/sdf1

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/23592.html