Matriz de discos de máquina virtual RAID0 RAID1 RAID5 RAID10 ¡Cree una demostración utilizando RAID y LVM para implementar la tecnología de matriz de discos!

** Matriz redundante de discos RAID **

La tecnología RAID combina múltiples dispositivos de disco duro en una matriz de discos con mayor capacidad y mejor seguridad, y divide los datos en múltiples segmentos y los almacena en diferentes dispositivos de disco duro físico, y luego usa tecnología de lectura y escritura dispersa Para mejorar el rendimiento general de la matriz de discos y sincronizar múltiples copias de datos importantes en diferentes dispositivos de disco duro físico al mismo tiempo, ha tenido un efecto de respaldo de redundancia de datos muy bueno.
Todo tiene sus dos caras. La tecnología RAID tiene una función de respaldo de redundancia de datos muy buena, pero también aumenta los costos en consecuencia. Es como si originalmente solo tuviéramos una guía telefónica, pero para evitar perderla, escribimos la información del número de contacto en dos copias. Naturalmente, tuvimos que comprar una guía telefónica adicional para esto, lo que aumentó el costo en consecuencia. La intención original de la tecnología RAID es reducir el costo de compra de equipos de disco duro, pero en comparación con el valor de los datos en sí, las empresas modernas valoran el mecanismo de respaldo redundante de la tecnología RAID y el aumento en el rendimiento del disco duro. Promover. En otras palabras, RAID no solo reduce la probabilidad de pérdida de datos después de que el dispositivo de disco duro se daña, sino que también mejora la velocidad de lectura y escritura del dispositivo de disco duro. Por lo tanto, se implementa y aplica ampliamente en la mayoría de los operadores o empresas grandes y medianas.
Por consideraciones técnicas y de costos, es necesario hacer concesiones entre la confiabilidad de los datos y el rendimiento de lectura y escritura para diferentes necesidades, y desarrollar diferentes soluciones para satisfacer sus respectivas necesidades. Hay al menos una docena de esquemas de matriz de discos RAID, y el Sr. Liu Dun explicará en detalle los 4 esquemas más comunes de RAID 0, RAID 1, RAID 5 y RAID 10.


RAID 0

La tecnología RAID 0 conecta varios dispositivos de disco duro físico (al menos dos) en serie por hardware o software para formar un grupo de gran volumen y escribir datos en cada disco duro físico a su vez. De esta manera, en el estado más ideal, el rendimiento de lectura y escritura del dispositivo de disco duro aumentará varias veces, pero si falla alguno de los discos duros, se destruirán los datos de todo el sistema. En términos generales, la tecnología RAID 0 puede mejorar eficazmente el rendimiento de los datos del disco duro, pero no tiene capacidad de copia de seguridad de datos y reparación de errores.
Inserte la descripción de la imagen aquí

2. RAID 1

La tecnología RAID 1 une dos o más dispositivos de disco duro. Al escribir datos, escribe datos en varios dispositivos de disco duro al mismo tiempo (se puede considerar como un espejo o una copia de seguridad de los datos). Cuando uno de los discos duros falla, el uso normal de los datos generalmente se restaurará inmediatamente mediante intercambio en caliente.

Inserte la descripción de la imagen aquí

3. RAID 5

La tecnología RAID5 guarda la información de paridad de datos del dispositivo de disco duro en otros dispositivos de disco duro. La información de paridad de los datos en un grupo de matrices de discos RAID 5 no se almacena por separado en un determinado dispositivo de disco duro, sino que se almacena en todos los demás dispositivos de disco duro excepto en él mismo. La ventaja es que ninguno de los dispositivos se dañará después del daño. Ocurre un error fatal; la parte de paridad de la figura almacena la información de paridad de los datos. En otras palabras, la tecnología RAID 5 en realidad no respalda la información de datos reales en el disco duro, sino que transmite la información de paridad cuando el dispositivo de disco duro tiene un problema. Para intentar reconstruir los datos dañados. Las características técnicas como el "compromiso" de RAID tienen en cuenta la velocidad de lectura y escritura de los dispositivos de disco duro, la seguridad de los datos y los costos de almacenamiento.
Inserte la descripción de la imagen aquí
4. RAID 10

La tecnología RAID 10 es una "combinación" de la tecnología RAID 1 + RAID 0. Como se muestra en la Figura 7-4, la tecnología RAID 10 requiere al menos 4 discos duros para formar. Primero, cree dos matrices de discos RAID 1 respectivamente para garantizar la seguridad de los datos, luego implemente RAID 0 para dos matrices de discos RAID 1. Tecnología para mejorar aún más la velocidad de lectura y escritura de los dispositivos de disco duro. De esta forma, teóricamente hablando, mientras no todos los discos duros de un mismo grupo estén dañados, hasta el 50% de los discos duros pueden dañarse sin perder datos. Debido a que la tecnología RAID 10 hereda la alta velocidad de lectura y escritura de RAID 0 y la seguridad de datos de RAID 1, el rendimiento de RAID 10 supera a RAID 5 independientemente del costo, por lo que actualmente es una tecnología de almacenamiento ampliamente utilizada.
Inserte la descripción de la imagen aquí

参数	作用
-a	    检测设备名称
-n	    指定设备数量
-l	    指定RAID级别
-C      创建
-v	    显示过程
-f	    模拟设备损坏
-r	    移除设备
-Q	    查看摘要信息
-D	    查看详细信息
-S	    停止RAID磁盘阵列

mdadm   -C 创建
-v 显示创建的过程
-l 指定RAID的级别是0 1 5 10
-D 查看详细信息     完成之后可以查询
-f 模拟设备损坏 
-a 检测设备名称     -a yes 自动创建设备文件
-n 有几块盘 

删除占用mdadm /dev/md1 --fail /dev/sdc --remove /dev/sdc
mdadm --stop /dev/md1或者/绑定的文件 删除磁盘阵列
mdadm --remove /dev/md1或者/绑定的文件 删除磁盘阵列

La máquina virtual simula el experimento de matriz de discos RAID 10 y cambia el proceso de operación de RAID 5

1. Primero agregue 4 discos en la configuración de la máquina virtual
Inserte la descripción de la imagen aquí
2. ¡Consulte el disco y use el comando mdadm para agregar la matriz de discos!
Inserte la descripción de la imagen aquí

[root@lizhiqiang Desktop]# mdadm -Cv /dev/md/zhuxing -a yes -n 4 -l 10 /dev/sd[c-f]
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/zhuxing started.
其中 /dev/md/zhuyxing 可以更改为/dev/md[0-无限]但必须有/dev/md格式 /dev/sd[c-f]可以设置为/dev/sdc /dev/sdd /dev/sdf /dev/sde

3. Formatee el disco principal y cree una carpeta en el directorio de inicio para montar el disco principal.

[root@lizhiqiang Desktop]# mkfs.ext4 /dev/md/zhuxing
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done   

[root@lizhiqiang Desktop]# cd ~
[root@lizhiqiang ~]# mkdir zhu
[root@lizhiqiang ~]# mount /dev/md/zhuxing /zhu
mount: mount point /zhu does not exist
[root@lizhiqiang ~]# mount /dev/md/zhuxing /root/zhu
其中在家目录中只写/zhu不可以挂载 只能用绝对路径挂载 显示挂载成功!

Agregue el disco al elemento de inicio y use el comando -D para ver la información de la partición montada

[root@lizhiqiang ~]# echo "/dev/md/zhuxing /zhu ext4 defaults 0 0" >> /etc/fstab
[root@lizhiqiang ~]# mdadm -D /dev/md/zhuxing
/dev/md/zhuxing:
        Version : 1.2
  Creation Time : Tue Oct 20 06:43:30 2020
     Raid Level : raid10
     Array Size : 41909248 (39.97 GiB 42.92 GB)
  Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Oct 20 06:52:37 2020
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 512K

           Name : lizhiqiang:zhuxing  (local to host lizhiqiang)
           UUID : 0a64eebf:9c26768e:88803e37:5ca70cdf
         Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       2       8       64        2      active sync   /dev/sde
       3       8       80        3      active sync   /dev/sdf

Conmutador RAID 10 RAID 5

Primero use el comando umount para desmontar el disco, y luego deje de usar el disco principal para evitar desperdiciar el disco. Después de desmontar con éxito, puede montar RAID 5

[root@lizhiqiang Desktop]# umount /dev/md/zhuxing
[root@lizhiqiang Desktop]# mdadm --stop /zhu
mdadm: error opening /zhu: Is a directory
[root@lizhiqiang Desktop]# mdadm --stop /dev/md/zhuxing
mdadm: stopped /dev/md/zhuxing
[root@lizhiqiang Desktop]# mdadm -D /dev/md/zhuxing
mdadm: cannot open /dev/md/zhuxing: No such file or directory

Para cargar RAID 5, use el comando mdadm y formatee. El comando mdadm necesita agregar un disco de respaldo y usar el comando -x.
En este punto, le indicará que la partición está ocupada usando y para forzar el uso con éxito.

[root@lizhiqiang Desktop]# mdadm -Cv /dev/md/zhuxing -a yes -n 3 -l 5 -x 1 /dev/sd[c-f]
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: /dev/sdc appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: /dev/sdd appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: /dev/sde appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: /dev/sdf appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: size set to 20954624K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/zhuxing started.
[root@lizhiqiang Desktop]# mdadm -D /dev/md/zhuxing
/dev/md/zhuxing:
        Version : 1.2
  Creation Time : Tue Oct 20 07:17:32 2020
     Raid Level : raid5
     Array Size : 41909248 (39.97 GiB 42.92 GB)
  Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
   Raid Devices : 3
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Oct 20 07:19:18 2020
          State : clean 
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : lizhiqiang:zhuxing  (local to host lizhiqiang)
           UUID : 19cec61b:0d1c4f49:972ba0ec:fad30b55
         Events : 32

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       4       8       64        2      active sync   /dev/sde

       3       8       80        -      spare   /dev/sdf

Formatee el disco principal y monte el disco principal para acceder a los elementos de inicio, RAID 5 se instaló correctamente

[root@lizhiqiang Desktop]# mkfs.ext4 /dev/md/zhuxing
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done   

[root@lizhiqiang Desktop]# mount /dev/md/zhuxing /zhu
[root@lizhiqiang Desktop]# df -h
Filesystem                        Size  Used Avail Use% Mounted on
/dev/mapper/rhel_lizhiqiang-root   18G  3.5G   15G  20% /
devtmpfs                          985M     0  985M   0% /dev
tmpfs                             994M  140K  994M   1% /dev/shm
tmpfs                             994M  8.9M  986M   1% /run
tmpfs                             994M     0  994M   0% /sys/fs/cgroup
/dev/sdb1                         2.0G   33M  2.0G   2% /opo
/dev/sda1                         497M  125M  373M  26% /boot
/dev/md127                         40G   49M   38G   1% /zhu
[root@lizhiqiang Desktop]# echo "/dev/md/zhuxing /zhu ext4 defaults 0 0" >> /etc/fstab
[root@lizhiqiang Desktop]# df -h
Filesystem                        Size  Used Avail Use% Mounted on
/dev/mapper/rhel_lizhiqiang-root   18G  3.5G   15G  20% /
devtmpfs                          985M     0  985M   0% /dev
tmpfs                             994M  140K  994M   1% /dev/shm
tmpfs                             994M  8.9M  986M   1% /run
tmpfs                             994M     0  994M   0% /sys/fs/cgroup
/dev/sdb1                         2.0G   33M  2.0G   2% /opo
/dev/sda1                         497M  125M  373M  26% /boot
/dev/md127                         40G   49M   38G   1% /zhu

¡Operación exitosa!

** Matriz de discos dañada y reparación **

El propósito de implementar un grupo de matrices de discos RAID10 en un entorno de producción es mejorar la velocidad de lectura y escritura de E / S de los dispositivos de almacenamiento y la seguridad de los datos, pero debido a que esta vez es un dispositivo de disco duro simulado en la computadora local, la mejora de la velocidad de lectura y escritura puede no ser posible. No es intuitivo, por lo que el profesor Liu Dun decidió explicar a los estudiantes cómo lidiar con el daño del grupo de arreglos de discos RAID, para que después de ingresar a la posición de operación y mantenimiento, no tenga prisa debido a emergencias. Primero confirme que un dispositivo de disco duro físico está dañado y que ya no se puede usar normalmente, debe usar el comando mdadm para eliminarlo y verificar que el estado del grupo de matriz de discos RAID haya cambiado:

Retire un disco duro de la matriz para simular un daño en el disco duro.

mdadm /dev/md0 -f /dev/sdb    #把/dev/sdb从磁盘阵列/dev/md0中移除
mdadm -D /dev/md0             #查看磁盘这列/dev/md0详细信息,发现/dev/sdb状态从active变为faulty
umount /RAID                  #先重启系统,卸载/RAID目录
mdadm /dev/md0 -a /dev/sdb    #把新硬盘添加到RAID磁盘阵列中
mdadm -D /dev/md0             #查看磁盘阵列/dev/md0详细信息,/dev/sdb正在 spare rebuilding,然后变回active
mount -a                      #重新挂载

Matriz de discos + disco de respaldo

Al implementar una matriz de discos RAID 5, se requieren al menos 3 discos duros y se requiere otro disco duro de respaldo.
Restaure la máquina virtual e implemente un disco de respaldo RAID 5 + 1.

mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sd[b-e]           #用3块硬盘创建RAID 5磁盘阵列,再用1块作为备份盘
mdadm -D /dev/md0                                        #查看磁盘阵列详细信息,显示3个盘为actvie,1个盘为spare,RAID类型为RAID 5
mkfs.ext4 /dev/md0                                       
echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab    #往/etc/fstab文件追加挂载信息,以实现永久挂载
mkdir /RAID
mount -a
mdadm /dev/md0 -f /dev/sdb                               #故意移除RAID 5阵列中的其中一个盘(active的盘)
mdadm -D /dev/md0                                        #再查看磁盘阵列/dev/md0详细信息,显示备份盘自动定提上去并开始数据同步(spare rebuilding)。


Supongo que te gusta

Origin blog.csdn.net/SYH885/article/details/109186389
Recomendado
Clasificación