Configuración y administración de RAID de Centos7

1. ¿Qué es RAID?
RAID se denomina matriz de discos, que se utiliza principalmente para mejorar la disponibilidad y el rendimiento del almacenamiento, al tiempo que mejora en gran medida la tolerancia a fallos de los discos. Una matriz de discos se compone de varios discos físicos, pero para el sistema operativo , Es un disco lógico y los datos almacenados en el sistema se distribuirán en varios discos físicos de la matriz.
2. Varios niveles de RAID

nivel Descripción Cantidad mínima de discos físicos Tolerancia máxima a fallos Rendimiento de E / S Utilización de la capacidad del disco
RAID 1 El nivel 1 también se denomina duplicación de discos y también requiere 2 discos, pero los discos son tolerantes a errores. Se requieren 2 discos Permita que un disco duro falle Rendimiento de lectura mejorado, rendimiento de escritura medio 50%
RAID 5 El nivel 5 se denomina matriz de verificación de paridad distribuida. El bit de verificación de los datos se utiliza para garantizar la seguridad de los datos, pero el bit de verificación de los datos no se almacena en un disco separado, sino que se almacena de forma interactiva en el disco de cada matriz. Si falla algún disco de la matriz, los datos dañados se pueden reconstruir basándose en el bit de paridad de otros discos Al menos 3 discos Permita que un disco duro falle Mejor rendimiento de lectura y escritura 90%
RAID 6 El nivel 6 es similar al nivel 5. El nivel 5 almacenará la información de verificación de los datos en el disco duro, y el nivel 6 guardará una información de verificación más que el nivel 5. Se requieren al menos 4 discos duros Permita que dos discos duros fallen Mejor rendimiento de lectura y escritura 80%
RAID 10 Se denomina estructura de disco de alta confiabilidad y eficiencia, que tiene las ventajas del nivel 0 y el nivel 1. Este nivel primero utiliza dos discos para establecer la duplicación y luego el disco lógico duplicado se convierte en el nivel 0 Se requieren al menos 4 discos duros Permita que un disco falle Buen rendimiento de lectura y escritura 50%

3. Tipos de RAID

especies Descripción
RAID suave Utilice la tecnología de software proporcionada por el sistema operativo para realizar la función RAID. Las ventajas son económicas y casi sin costo. Las desventajas se limitan a la estabilidad del sistema operativo y ocupan ciertos recursos del sistema.
RAID duro Realizado por un controlador RAID de hardware, la ventaja es que no necesita ocupar otros recursos de hardware, y también proporciona un mecanismo de caché, que mejora en gran medida el rendimiento de lectura y escritura del disco, y la estabilidad también es muy alta.

4. Realice la
plataforma de simulación de software RAID en el sistema Linux : estación de trabajo VMware
Entorno de prueba: una computadora centos7, agregue un disco duro
Use la herramienta: mdadm
[raid1] Proceso de implementación:
1. Primero verifique el tipo de etiqueta del disco.
Si es MBR, use fdisk para crear el mismo tamaño
Si la partición del disco es GPT, puede usar gdisk para crear particiones de disco del mismo tamaño

[root@lab-236 ~]# fdisk -l /dev/sdb
磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:gpt              #硬盘类型GPT
Disk identifier: 037192CD-B94D-4F5D-A559-A90B74EECA9D
  Start          End    Size  Type            Name

2. Cree 2 particiones y cambie el tipo de sistema de partición a Linux RAID.
Debido a que nuestro tipo de etiqueta de disco es GPT, usamos gdisk para ejecutar

[root@lab-236 ~]# gdisk /dev/sdb
GPT fdisk (gdisk) version 0.8.10
Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present
Found valid GPT with protective MBR; using GPT.
Command (? for help): n     #创建新的分区
Partition number (1-128, default 1): 1      #分区编号1
First sector (34-41943006, default = 2048) or {+-}size{KMGTP}:     #指定起始扇区,默认即可
Last sector (2048-41943006, default = 41943006) or {+-}size{KMGTP}: +5G   #指定分区大小
Current type is 'Linux filesystem'
Hex code or GUID (L to show codes, Enter = 8300): fd00      #更改分区系统类型为LinuxRAID
Changed type of partition to 'Linux RAID'

Command (? for help): n   #继续创建第二分区
Partition number (2-128, default 2): 2     #分区编号2
First sector (34-41943006, default = 10487808) or {+-}size{KMGTP}:  #指定起始扇区,默认即可
Last sector (10487808-41943006, default = 41943006) or {+-}size{KMGTP}: +5G  #指定分区大小
Current type is 'Linux filesystem'
Hex code or GUID (L to show codes, Enter = 8300): fd00   #更改分区系统类型为LinuxRAID
Changed type of partition to 'Linux RAID'

Command (? for help): p     #显示分区信息
Disk /dev/sdb: 41943040 sectors, 20.0 GiB
Logical sector size: 512 bytes
Disk identifier (GUID): 037192CD-B94D-4F5D-A559-A90B74EECA9D
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 41943006
Partitions will be aligned on 2048-sector boundaries
Total free space is 20971453 sectors (10.0 GiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048        10487807   5.0 GiB     FD00  Linux RAID
   2        10487808        20973567   5.0 GiB     FD00  Linux RAID

Command (? for help): w         #保存分区信息
Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
PARTITIONS!!

Do you want to proceed? (Y/N): Y        #分区发生改变,提示是否继续保存
OK; writing new GUID partition table (GPT) to /dev/sdb.
The operation has completed successfully.

3. Ejecute la herramienta mdadm para crear RAID1.
Tenga en cuenta que la creación de números de dispositivo RAID debe comenzar desde 0

[root@lab-236 ~]# mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdb2 
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Thu Dec 10 20:52:02 2020
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdb2 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Thu Dec 10 20:52:02 2020
Continue creating array? Y      #提示创建是否继续,是Y
mdadm: Fail to create md0 when using /sys/module/md_mod/parameters/new_array, fallback to creation via node
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

Nota: Durante el proceso de creación, aparece un mensaje de que esta matriz no es adecuada para su uso como disco de arranque. Esto está determinado por el tipo de superbloque. El tipo de superbloque se puede configurar mediante la opción –metadata. El valor predeterminado es 1.2, y solo cuando este valor no es mayor que 1.0. Como un disco de arranque
4. Verifique la información detallada y el estado operativo del RAID creado

[root@lab-236 ~]# mdadm --detail /dev/md0       #查看RAID详细信息
/dev/md0:
           Version : 1.2
     Creation Time : Fri Dec 11 16:46:33 2020
        Raid Level : raid1
        Array Size : 5237760 (5.00 GiB 5.36 GB)
     Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent
       Update Time : Fri Dec 11 16:46:59 2020
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0
Consistency Policy : resync
              Name : lab-236.com:0  (local to host lab-236.com)
              UUID : 52f68880:b4d10435:d271aaa2:261ed9cb
            Events : 17
    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       18        1      active sync   /dev/sdb2
[root@lab-236 ~]# cat /proc/mdstat          #查看运行状态
Personalities : [raid1] 
md0 : active raid1 sdb2[1] sdb1[0]
      5237760 blocks super 1.2 [2/2] [UU]
unused devices: <none>

5. Cree una partición RAID y luego formatee el sistema de archivos antes de que pueda usarse

[root@lab-236 ~]# mkfs.xfs   /dev/md0       #格式化为xfs文件系统
meta-data=/dev/md0               isize=512    agcount=4, agsize=327360 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=1309440, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

6. Monte la partición RAID en el directorio especificado, donde está montada en / mnt

[root@lab-236 ~]# mount /dev/md0 /mnt

Ver el uso del disco a través del comando df

[root@lab-236 ~]# df  -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 471M     0  471M    0% /dev
tmpfs                    488M  8.1M  480M    2% /run
tmpfs                    488M     0  488M    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  4.5G   12G   28% /
/dev/md0                 5.0G   33M  5.0G    1% /mnt        #可以看到挂载成功

7. Simule la falla del disco y repare el RAID del disco.
Primero, creamos un archivo en el directorio donde está montada la partición RAID

[root@lab-236 ~]# echo "hello world" > /mnt/hello.txt

En este momento, usamos la herramienta mdadm para configurar una partición (/ dev / sdb1) como partición de falla

[root@lab-236 ~]# mdadm /dev/md0 --fail /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0

Entonces estamos viendo la información de configuración de RAID

[root@lab-236 ~]# mdadm --detail /dev/md0 
/dev/md0:
           Version : 1.2
     Creation Time : Fri Dec 11 16:46:33 2020
        Raid Level : raid1
        Array Size : 5237760 (5.00 GiB 5.36 GB)
     Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent
       Update Time : Fri Dec 11 17:05:32 2020
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 1
     Spare Devices : 0
Consistency Policy : resync
              Name : lab-236.com:0  (local to host lab-236.com)
              UUID : 52f68880:b4d10435:d271aaa2:261ed9cb
            Events : 21
    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       18        1      active sync   /dev/sdb2
       0       8       17        -      faulty   /dev/sdb1     #此时/dev/sdb1状态时有缺陷的

Podemos ver que el estado de / dev / sdb1 es defectuoso, está defectuoso y hay una falla.
Comprobar el funcionamiento

[root@lab-236 ~]# cat  /proc/mdstat 
Personalities : [raid1] 
md0 : active raid1 sdb2[1] sdb1[0](F)
      5237760 blocks super 1.2 [2/1] [_U]   #发现超级块数量变成[2/1],缺失1个

unused devices: <none>

8. En este momento, verificamos si los archivos en el directorio de montaje son normales.

[root@lab-236 ~]# cat  /mnt/hello.txt 
hello world

Descubrimos que el archivo es normal, que es la tolerancia a fallas de RAID1. Una falla de disco no afectará el uso continuo de los archivos de datos.
9. A continuación, reparamos el RAID.
Primero, debemos eliminar la partición de disco defectuosa

[root@lab-236 ~]# mdadm /dev/md0 --remove /dev/sdb1
mdadm: hot removed /dev/sdb1 from /dev/md0

Luego agregaremos el nuevo disco comprado a este RAID. Si está en el entorno físico real, simplemente reemplace el disco físico y agréguelo. Aquí simulamos el entorno. Simplemente agréguelo cuando se repare / dev / sdb1

[root@lab-236 ~]# mdadm /dev/md0 --add /dev/sdb1
mdadm: added /dev/sdb1

En este momento, verificamos la información de RAID y podemos ver que el disco recién agregado está experimentando una reconstrucción de RAID de repuesto. Este proceso lleva tiempo y la cantidad de tiempo está relacionada con el tamaño de los datos espaciales.

[root@lab-236 ~]# mdadm --detail /dev/md0 
/dev/md0:
           Version : 1.2
     Creation Time : Fri Dec 11 16:46:33 2020
        Raid Level : raid1
        Array Size : 5237760 (5.00 GiB 5.36 GB)
     Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent
       Update Time : Fri Dec 11 17:24:08 2020
             State : clean, degraded, recovering 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 1
Consistency Policy : resync
    Rebuild Status : 57% complete
              Name : lab-236.com:0  (local to host lab-236.com)
              UUID : 52f68880:b4d10435:d271aaa2:261ed9cb
            Events : 41
    Number   Major   Minor   RaidDevice State
       2       8       17        0      spare rebuilding   /dev/sdb1
       1       8       18        1      active sync   /dev/sdb2

Resumen:
1. Si ha creado un RAID suave antes en el proceso de configuración, primero debe detener el dispositivo RAID original

mdadm  --stop  /dev/md0

Si no se detiene, aparecerá el siguiente error:
mdadm: no se puede abrir / dev / sdb1: dispositivo o recurso ocupado
2. Si desea reconstruir el software RAID, los pasos deben ser los siguientes:
1. Primero desmonte el directorio
2. Detenga el dispositivo RAID
3. Quite el dispositivo RAID Disco

Supongo que te gusta

Origin blog.51cto.com/6461704/2563020
Recomendado
Clasificación