当前位置:主页 > 查看内容

CentOS7 部署 RAID 磁盘阵列

发布时间:2021-06-07 00:00| 位朋友查看

简介:CentOS7 部署 RAID 磁盘阵列 一、RAID 磁盘阵列概述 二、RAID 工作模式 1.RAID 0 2.RAID 1 3.RAID 5 4.RAID 10 三、部署 RAID 磁盘阵列 1.创建 RAID 0 2.创建 RAID 1 3.创建 RAID 5 4.模拟磁盘损坏 5.向 RAID 中增加存储硬盘 6.创建 RAID 10 一、RAID 磁盘阵……

一、RAID 磁盘阵列概述

RAID (Redundant Array of lndependent Disk 独立冗余磁盘阵列)就是把多块独立的物理磁盘按不同的方式组合起来形成一个磁盘组(逻辑硬盘)。从而提供比单个磁盘更高的存储性能和提供数据备份技术。

二、RAID 工作模式

RAID 0,RAID 1,RAID 5,RAID 10

1.RAID 0

  • RAID0 可以被称为带区卷。它将两个以上的磁盘并联起来,成为一个大容量的磁盘;
  • 在存放数据时,分段后分散存储在这些磁盘中,因为读写时都可以并行处理,所以在所有的级别中,RAID0 的速度是最快的;
  • 但是 RAID0 既没有冗余功能,也不具备容错能力,如果一个磁盘(物理)损坏,所有数据都会丢失。

在这里插入图片描述

容错性冗余类型
热备盘读性能
随机写性能连续写性能
需要的磁盘数1+N可用容量N*
  • 典型应用:对数据安全性要求不高,但对读写性能要求极高,如图形工作站等。

2.RAID 1

  • RAID1 把一个磁盘的数据镜像到另一个磁盘上,在不影响性能的情况下最大限度的保证系统的可靠性和可修复性上;
  • 具有很高的数据冗余能力,但磁盘利用率为 50%,因为成本最高,所以多用在保护关键性的重要数据的场合;
  • RAID1 的操作方式是把用户写入磁盘的数据百分百地复制到另外一个磁盘上。

在这里插入图片描述

容错性冗余类型镜像
热备盘读性能低(与单块磁盘一样)
随机写性能连续写性能
需要的磁盘数2*N(N 代表磁盘数量)可用容量N/2
  • 典型应用:对数据安全性要求极高,但是读写效率低,用于服务器或数据库存储等。

3.RAID 5

  • RAID5 可以理解为 RAID0 和 RAID1 的折中方案
  • RAID5 可以为系统提供数据安全保障,但保障程度要比 RAID1 低,而磁盘空间利用率要比 Mirror 高;
  • RAID5 具有和 RAID0 相近似的数据读取速度,只是多了一个奇偶校验信息,RAID5 的磁盘空间利用率要比 RAID1 高,储存成本相对较低。

在这里插入图片描述

容错性冗余类型奇偶校验信息存储
热备盘读性能高(与RAID0 相近)
随机写性能较低连续写性能较低
需要的磁盘数大于等于 3可用容量N - 1
  • 典型应用:随机数据传输要求安全性高,如金融、数据库、存储等。

4.RAID 10

  • RAID10 是一个 RAID0 和 RAID1 的组合体,所以它继承了 RAID0 的快速和 RAID1 的安全;
  • RAID1 在这里就是一个冗余的备份阵列,而 RAID0 则负责数据的读写阵列;
  • 情况是从主通道分出两路,在 Striping 操作,即把数据分隔,而这分出来的每一路再分两路,做 Mirrorinig 操作,即互做镜像。

在这里插入图片描述

容错性冗余类型镜像
热备盘读性能高(与 RAID0 相近)
随机写性能连续写性能
需要的磁盘数N*2(N 需要大于等于 2)可用容量N/2
  • 典型应用:集成了 RAID0 和 RAID1 的优点。

三、部署 RAID 磁盘阵列

  • 准备四块 20G 的硬盘,每块硬盘分四个分区,每个分区 5G
[root@localhost ~]# fdisk /dev/sdb
n											#创建分区
p											#创建普通分区
回车
回车
+5G											#分配5G内存
t											#更改分区类型为RAID类型 (只是为了方便记住)
回车
fd											#fd类型就是RAID
以上步骤依次类推,配置其它分区也是如此

在这里插入图片描述
使用 partprobe 命令同步分区情况

[root@localhost ~]# partprobe

在这里插入图片描述

1.创建 RAID 0

[root@localhost ~]# yum -y install mdadm						#安装RAID管理工具
[root@localhost ~]# mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb1 /dev/sdc1

注解:

选项全称作用
-C--create创建阵列
-a--auto同意创建设
-l--level阵列模式
-n--reid-devices阵列中活动磁盘的数目
-x--spare-devices=N表示当前阵列中热备盘有 N 块(自定义 N 数量即可)
-S--stop关闭阵列(关闭前需先取消挂载)

1)查看 RAID0 状态

[root@localhost ~]# cat /proc/mdstat							#查看概要信息
[root@localhost ~]# mdadm -D /dev/md0							#查看更详细的信息

在这里插入图片描述
注解:

  • Raid Level:阵列级别。
  • Array Size:阵列容量大小。
  • Raid Devices:RAID 成员的个数。
  • Total Devices:RAID 中下属成员的总计个数,因为还有冗余硬盘或分区,也就是 spare。
  • State:包含三个状态(clean 表示正常,degraded 表示有问题,recovering 表示正在恢复或构建)
  • Active Devices:被激活的 RAID 成员个数。
  • Working Devices:正常工作的 RAID 成员个数。
  • Failed Devices:出问题的 RAID 成员。
  • Spare Devices:备用 RAID 成员个数(会自动替换出现问题的成员)。
  • UUID:RAID 的 UUID 值,在系统中是唯一的。

2)创建 mdadm 配置文件

  • 创建 mdadm 原因:因为每次系统重启时,RAID 的 UUID 都会变化,所以创建 mdadm 文件就是为了每次重启自动加载软 RAID。
[root@localhost ~]# echo "DEVICE /dev/sdb1 /dev/sdc1" > /etc/mdadm.conf 			#指定软 RAID 设备
[root@localhost ~]# mdadm -Ds /dev/md0 >> /etc/mdadm.conf							# RAID0  UUID 追加到该目录

在这里插入图片描述
3)格式化磁盘阵列

[root@localhost ~]# mkfs.xfs /dev/md0							#格式化为 xfs 文件系统

4)建立挂载点并挂载

[root@localhost ~]# mkdir /raid0								#创建挂载点
[root@localhost ~]# mount /dev/md0 /raid0/						#挂载
[root@localhost ~]# df -hT										#查看磁盘使用情况
[root@localhost ~]# echo "/dev/md0 /raid0 xfs defaults 0 0" >> /etc/fstab

在这里插入图片描述
5)验证 RAID0 是否开机自动挂载

[root@localhost ~]# reboot										#重启
[root@localhost ~]# df -hT										#查看磁盘使用情况

在这里插入图片描述

2.创建 RAID 1

[root@localhost ~]# mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdb2 /dev/sdc2

在这里插入图片描述
1)查看 RAID1 状态

[root@localhost ~]# mdadm -D /dev/md1							#查看更详细的信息

在这里插入图片描述
注解:

  • Used Dev Size:RAID 成员容量大小。

2)修改 mdadm 配置文件

[root@localhost ~]# echo "DEVICE /dev/sdb2 /dev/sdc2" >> /etc/mdadm.conf 			#指定软 RAID 设备
[root@localhost ~]# mdadm -Ds /dev/md1 >> /etc/mdadm.conf

在这里插入图片描述
3)格式化磁盘阵列

[root@localhost ~]# mkfs.xfs /dev/md1							#格式化为 xfs 文件系统

4)建立挂载点并挂载

[root@localhost ~]# mkdir /raid1								#创建挂载点
[root@localhost ~]# mount /dev/md1 /raid1/						#挂载
[root@localhost ~]# df -hT										#查看磁盘使用情况
[root@localhost ~]# echo "/dev/md1 /raid1 xfs defaults 0 0" >> /etc/fstab

在这里插入图片描述
5)验证 RAID0 是否开机自动挂载

[root@localhost ~]# reboot										#重启
[root@localhost ~]# df -hT										#查看磁盘使用情况

在这里插入图片描述

3.创建 RAID 5

  • 注意:RAID5 至少需要三块硬盘
[root@localhost ~]# mdadm -C /dev/md5 -a yes -l 5 -n 3 -x 1 /dev/sdb3 /dev/sdc3 /dev/sdd1 /dev/sde1

在这里插入图片描述
1)查看 RAID5 状态

[root@localhost ~]# mdadm -D /dev/md5

在这里插入图片描述
2)修改 mdadm 配置文件

[root@localhost ~]# echo "DEVICE /dev/sdb3 /dev/sdc3 /dev/sdd1 /dev/sde1" >> /etc/mdadm.conf 
[root@localhost ~]# mdadm -Ds /dev/md5 >> /etc/mdadm.conf

在这里插入图片描述
3)格式化磁盘阵列

[root@localhost ~]# mkfs.xfs /dev/md5

4)建立挂载点并挂载

[root@localhost ~]# mkdir /raid5								#创建挂载点
[root@localhost ~]# mount /dev/md5 /raid5/						#挂载
[root@localhost ~]# df -hT										#查看磁盘使用情况
[root@localhost ~]# echo "/dev/md5 /raid5 xfs defaults 0 0" >> /etc/fstab

在这里插入图片描述
5)向 /raid5 里面写入测试数据

[root@localhost ~]# cd /raid5/
[root@localhost raid5]# touch zhangsan.txt
[root@localhost raid5]# touch wangwu.txt
[root@localhost raid5]# ls
wangwu.txt  zhangsan.txt

4.模拟磁盘损坏

  • 在实际中,当软 RAID 检测到某个硬盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作。

1)对 RAID5 进行模拟故障操作

[root@localhost ~]# mdadm /dev/md5 -f /dev/sdd1

在这里插入图片描述
2)查看重建状态

  • 当一个设备出现故障或被标记故障时,相应设备的方括号后将被标以 (F)。
[root@localhost ~]# cat /proc/mdstat

在这里插入图片描述
3)查看之前写入的测试数据是否还在

[root@localhost ~]# ls /raid5/

在这里插入图片描述
4)重建完毕后查看阵列状态

[root@localhost ~]# cat /proc/mdstat

在这里插入图片描述
5)移除损坏的磁盘

[root@localhost ~]# mdadm /dev/md5 -r /dev/sdd1

在这里插入图片描述
6)再次查看 /dev/md5 状态

[root@localhost ~]# mdadm -D /dev/md5

在这里插入图片描述
7)新加热备磁盘

[root@localhost ~]# mdadm /dev/md5 -a /dev/sdd1

在这里插入图片描述
8)查看 /dev/md5 状态

[root@localhost ~]# mdadm -D /dev/md5

在这里插入图片描述

5.向 RAID 中增加存储硬盘

  • 如果现在已经做好的 RAID 空间还是不够用的话,那么我们可以向里面增加新的硬盘,来增加 RAID 的空间。

1)向 RAID 中新加一块硬盘

[root@localhost ~]# mdadm /dev/md5 -a /dev/sdd2

在这里插入图片描述
2)查看此时的 RAID 状态

[root@localhost ~]# mdadm -D /dev/md5

在这里插入图片描述

  • 默认情况下,我们向 RAID 中增加的磁盘,会被默认当作热备盘,我们把热备盘加入到 RAID 的活动盘中。

3)热备盘转换成活动盘

[root@localhost ~]# mdadm -G /dev/md5 -n 4

在这里插入图片描述
4)查看此时的 RAID 状态

[root@localhost ~]# mdadm -D /dev/md5

在这里插入图片描述
5)扩容文件系统

  • RAID 构建完毕后,阵列容量增加,但是文件系统还没有增加,这时我们还需要对文件系统进行扩容。
[root@localhost ~]# xfs_growfs /dev/md5

在这里插入图片描述
6)修改 RAID 配置文件

[root@localhost ~]# vim /etc/mdadm.conf
将原来的 RAID5 配置删除
[root@localhost ~]# echo "DEVICE /dev/sdb3 /dev/sdc3 /dev/sdd2 /dev/sde1" >> /etc/mdadm.conf 
[root@localhost ~]# mdadm -Ds /dev/md5 >> /etc/mdadm.conf

7)验证 RAID5 是否开机自动挂载

[root@localhost ~]# reboot
[root@localhost ~]# df -hT

在这里插入图片描述

6.创建 RAID 10

  • 注意:RAID10 至少需要四块硬盘
[root@localhost ~]# mdadm -C /dev/md10 -a yes -l 10 -n 4 /dev/sdb4 /dev/sdc4 /dev/sdd4 /dev/sde4

在这里插入图片描述
1)查看 RAID10 状态

[root@localhost ~]# mdadm -D /dev/md10

在这里插入图片描述
2)修改 mdadm 配置文件

[root@localhost ~]# echo "DEVICE /dev/sdb4 /dev/sdc4 /dev/sdd4 /dev/sde4" >> /etc/mdadm.conf 
[root@localhost ~]# mdadm -Ds /dev/md10 >> /etc/mdadm.conf

在这里插入图片描述
3)格式化磁盘阵列

[root@localhost ~]# mkfs.xfs /dev/md10							#格式化为 xfs 文件格式

4)建立挂载点并挂载

[root@localhost ~]# mkdir /raid10								#创建挂载目录
[root@localhost ~]# mount /dev/md10 /raid10/					#挂载
[root@localhost ~]# df -hT										#查看磁盘使用情况
[root@localhost ~]# echo "/dev/md10 /raid10 xfs defaults 0 0" >> /etc/fstab

在这里插入图片描述
7)验证 RAID10 是否开机自动挂载

[root@localhost ~]# reboot
[root@localhost ~]# df -hT

在这里插入图片描述

;原文链接:https://blog.csdn.net/weixin_46902396/article/details/115503328
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!

推荐图文


随机推荐