【Linux】——RAID Disk Array und Konfiguration

1. RAID

1.1 Einführung in die RAID-Festplattenanzeige

ist die Abkürzung für Redundant Array of Independent Disks, die chinesische Abkürzung lautetRedundantes Array unabhängiger Festplatten

setzenMehrere unabhängige physische Festplattenauf verschiedene Weise kombiniert, um a zu bildenFestplattengruppe(logische Festplatte) und damit eine höhere Speicherleistung undBereitstellung von Datensicherungstechnologie

Es werden verschiedene Arten der Bildung von Plattenarrays genanntRAID-Level(RAID-Stufen)

常用的RAID级别

■ RAID0, RAID1, RAID5, RAID6, RAID1+0 usw.

1.2 RAID 0 (Striped-Speicher)

RAID 0 fortlaufendin Bits oder BytesTeilen Sie die Daten in Einheiten auf,paralleles Lesen/Schreibenauf mehreren Platten, alsoHat eine hohe Datenübertragungsrate,aber eskeine Datenredundanz

RAID 0 ist nurEinfach Leistung steigern, gibt keine Garantien für die Zuverlässigkeit der Daten, undDer Ausfall einer der Festplatten wirkt sich auf alle Daten aus

RAID 0 kann nicht angewendet werdenHohe Anforderungen an die DatensicherheitGelegenheit

Bildbeschreibung hier einfügen

1.3 RAID 1 (Spiegelspeicher)

BestandenFestplattendatenspiegelung für Datenredundanz, auf Paaren unabhängiger FestplattenGenerieren Sie gegenseitige Backup-Daten

Wenn die Rohdaten beschäftigt sind, kann esDaten direkt von der Spiegelkopie lesen, also RAID 1 kannVerbessern Sie die Leseleistung

RAID 1 ist dashöchsten Stückkosten,AberBietet hohe Datensicherheit und Verfügbarkeit. Wenn eine Platte ausfällt, kann das System zum Lesen und Schreiben automatisch auf die Spiegelplatte umschalten, ohne die ausgefallenen Daten neu zu organisieren

Bildbeschreibung hier einfügen

1.4 Einführung in RAID 5 Disk Array

RAID 5
● N (N>=3) Platten bilden ein Array,Ein Datenelement erzeugt N-1 Streifen, ebenso gut wie1 Verifizierungsdaten, werden insgesamt N Kopien von Daten in einer Umlaufbilanz auf N Platten gespeichert

Gleichzeitiges Lesen und Schreiben von N Festplatten, hohe Leseleistung, aber aufgrund des Problems des Verifikationsmechanismus ist die Schreibleistung relativ gering

(N-1)/N Plattenauslastung

● Hohe Zuverlässigkeit,Eine Festplatte darf beschädigt werden, ohne dass alle Daten davon betroffen sind

Bildbeschreibung hier einfügen

1.5 Einführung in RAID 6 Disk Array

RAID 6
● N (N>=4) Platten bilden ein Array,(N-2)/NFestplattenauslastung

● Verglichen mit RAID 5 erhöht sich RAID 6Zweiter unabhängiger Paritätsinformationsblock

● Zwei unabhängige Paritätssysteme verwenden unterschiedliche Algorithmen, auch wennDer gleichzeitige Ausfall von zwei Festplatten hat keinen Einfluss auf die Datennutzung

● Im Vergleich zu RAID 5 gibt es einen größeren "Schreibverlust", daher ist die Schreibleistung schlechter
Bildbeschreibung hier einfügen

1.6 Einführung in RAID 1+0 Disk Arrays

RAID 1+0 ((zuerst Spiegelung, dann Striping)

N (gerade Zahl, N>=4) Festplattenpaarweises Spiegelbildzurück,In ein RAID 0 rekombinieren

N/2 Plattenauslastung

Schreiben Sie gleichzeitig auf N/2 Festplatten und lesen Sie gleichzeitig auf N Festplatten

Hohe Leistung und hohe Zuverlässigkeit

● Die Ausfallrate beträgt 1/3

Bildbeschreibung hier einfügen

RAID 0+1 (zuerst Strip, dann Mirror)

Die Lese- und Schreibleistung entspricht der von RAID 10

weniger sicher als RAID 10

● Die Ausfallrate beträgt 2/3

Bildbeschreibung hier einfügen

Bildbeschreibung hier einfügen

1.7 Einführung in die Array-Karte

■ Array-Karten verwendet werdenDas Board, das die RAID-Funktion implementiert

■ Es besteht normalerweise aus einer Reihe von Komponenten wie E/A-Prozessor, Festplattencontroller, Festplattenanschluss und Cache

■ Unterschiedliche RAID-Karten unterstützen unterschiedliche RAID-Funktionen

● Unterstützt beispielsweise RAID0, RAID1, RAID5, RAID10 usw.

■ Schnittstellentyp der RAID-Karte

● IDE-Schnittstelle,SCSI-Schnittstelle, SATA-Schnittstelle und SAS-Schnittstelle

2. Hard RAID erstellt ein Disk-Array

创建RAID5,步骤如下所示:

(1) Erstellen Sie eine Festplatte;

Bildbeschreibung hier einfügen
Bildbeschreibung hier einfügen

(2) Schnellinitialisierungsoperation;

Bildbeschreibung hier einfügen

(3) Erstellen Sie eine Hot-Backup-Festplatte;

Bildbeschreibung hier einfügen
补充:

ctrl +n/ctrl+p: linkes und rechtes Umschalten erreichen;

3. Soft-RAID erstellt ein Disk-Array

3.1 Beispiel: Soft-Create-RAID5

创建 RAID5磁盘阵列,步骤如下所示:

(1) Prüfen Sie, ob das mdadm-Paket installiert ist;

[root@clr ~]# rpm -q mdadm #查看是否已安装mdadm安装包
mdadm-4.1-6.el7.x86_64

(2) Verwenden Sie das fdisk-Tool, um die neuen Festplattengeräte /dev/sdb, /dev/sdc, /dev/sdd, /dev/sde in die primären Partitionen sdb1, sdc1, sdd1, sde1 aufzuteilen, und ändern Sie die ID-Nummer der Partitionstyp für "fd";

[root@clr ~]# lsblk  #查看磁盘划分的分区情况
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   60G  0 disk 
├─sda1   8:1    0   37G  0 part /
├─sda2   8:2    0    1K  0 part 
└─sda5   8:5    0  3.9G  0 part [SWAP]
sdb      8:16   0   20G  0 disk 
└─sdb1   8:17   0   20G  0 part 
sdc      8:32   0   20G  0 disk 
└─sdc1   8:33   0   20G  0 part 
sdd      8:48   0   20G  0 disk 
└─sdd1   8:49   0   20G  0 part 
sde      8:64   0   20G  0 disk 
└─sde1   8:65   0   20G  0 part 
sr0     11:0    1  4.4G  0 rom  /run/media/root/CentOS 7 x86_64

(3) Erstellen Sie ein RAID-Gerät;

[root@clr ~]# mdadm -Cv /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1  #创建raid5并命名为md5
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20953088K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@clr ~]# mdadm -D /dev/md5  #查看创建过程
/dev/md5:
           Version : 1.2
     Creation Time : Thu Apr  6 21:52:16 2023
        Raid Level : raid5
        Array Size : 41906176 (39.96 GiB 42.91 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Thu Apr  6 21:53:00 2023
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 2

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 27% complete

              Name : clr:5  (local to host clr)
              UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
            Events : 5

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       4       8       49        2      spare rebuilding   /dev/sdd1

       3       8       65        -      spare   /dev/sde1
[root@clr ~]# cat /proc/mdstat  #查看创建进程
Personalities : [raid6] [raid5] [raid4] 
md5 : active raid5 sdd1[4] sde1[3](S) sdc1[1] sdb1[0]
      41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [========>............]  recovery = 43.7% (9167232/20953088) finish=1.6min speed=120373K/sec
      
unused devices: <none>
[root@clr ~]# watch -n 5 'cat /proc/mdstat' #每5秒钟监听一次,创建的过程

mdadm -E [Name des Partitionsgeräts]: prüft, ob ein bestimmtes Partitionsgerät überfallen wurde;

[root@clr ~]# mdadm -E /dev/sdb1  #检查某个指定分区设备,是否做过raid
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
           Name : clr:5  (local to host clr)
  Creation Time : Thu Apr  6 21:52:16 2023
     Raid Level : raid5  #用于做raid5的磁盘阵列
   Raid Devices : 3

 Avail Dev Size : 41906176 sectors (19.98 GiB 21.46 GB)
     Array Size : 41906176 KiB (39.96 GiB 42.91 GB)
    Data Offset : 34816 sectors
   Super Offset : 8 sectors
   Unused Space : before=34664 sectors, after=0 sectors
          State : clean
    Device UUID : dff29ecc:4942ac37:a22d145f:a18c8b44

    Update Time : Thu Apr  6 21:55:16 2023
  Bad Block Log : 512 entries available at offset 136 sectors
       Checksum : aedc2043 - correct
         Events : 18

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

(4) Erstellen und Mounten des Dateisystems;

[root@clr ~]# mkfs -t xfs /dev/md5  #将分区/dev/md5格式化为xfs类型
meta-data=/dev/md5               isize=512    agcount=16, agsize=654720 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10475520, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@clr ~]# mkdir /data
[root@clr ~]# mount /dev/md5 /data  #将/dev/md5挂载到/data目录下
[root@clr ~]# df -hT
文件系统       类型      容量  已用  可用 已用% 挂载点
devtmpfs       devtmpfs  2.0G     0  2.0G    0% /dev
tmpfs          tmpfs     2.0G     0  2.0G    0% /dev/shm
tmpfs          tmpfs     2.0G   13M  2.0G    1% /run
tmpfs          tmpfs     2.0G     0  2.0G    0% /sys/fs/cgroup
/dev/sda1      xfs        38G  5.4G   32G   15% /
tmpfs          tmpfs     394M   32K  394M    1% /run/user/0
/dev/sr0       iso9660   4.4G  4.4G     0  100% /run/media/root/CentOS 7 x86_64
/dev/md5       xfs        40G   33M   40G    1% /data  #挂载成功

(5) Fehlerwiederherstellung realisieren;

[root@clr ~]# mdadm /dev/md5 -f /dev/sdb1 #模拟raid5中的/dev/sdb1出现故障
mdadm: set /dev/sdb1 faulty in /dev/md5
[root@clr ~]# mdadm -D  /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Thu Apr  6 21:52:16 2023
        Raid Level : raid5
        Array Size : 41906176 (39.96 GiB 42.91 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Thu Apr  6 22:11:14 2023
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 1
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 9% complete  #正在重新创建磁盘阵列

              Name : clr:5  (local to host clr)
              UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
            Events : 21

    Number   Major   Minor   RaidDevice State
       3       8       65        0      spare rebuilding   /dev/sde1
       1       8       33        1      active sync   /dev/sdc1
       4       8       49        2      active sync   /dev/sdd1

       0       8       17        -      faulty   /dev/sdb1
[root@clr ~]# cat /proc/mdstat  #查看创建进度
Personalities : [raid6] [raid5] [raid4] 
md5 : active raid5 sdd1[4] sde1[3] sdc1[1] sdb1[0](F)
      41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
      [============>........]  recovery = 63.8% (13387776/20953088) finish=1.0min speed=125660K/sec
      
unused devices: <none>
[root@clr ~]# mdadm /dev/md5 -r /dev/sdb1 #将出现故障的坏盘/dev/sdb1移除磁盘阵列
mdadm: hot removed /dev/sdb1 from /dev/md5
[root@clr ~]# mdadm -D  /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Thu Apr  6 21:52:16 2023
        Raid Level : raid5
        Array Size : 41906176 (39.96 GiB 42.91 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Thu Apr  6 22:14:02 2023
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : clr:5  (local to host clr)
              UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
            Events : 38

    Number   Major   Minor   RaidDevice State
       3       8       65        0      active sync   /dev/sde1
       1       8       33        1      active sync   /dev/sdc1
       4       8       49        2      active sync   /dev/sdd1
[root@clr ~]# mdadm /dev/md5 -a /dev/sdb1  #将分区/dev/sdb1再次放回磁盘阵列
mdadm: added /dev/sdb1
[root@clr ~]# mdadm -D  /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Thu Apr  6 21:52:16 2023
        Raid Level : raid5
        Array Size : 41906176 (39.96 GiB 42.91 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Thu Apr  6 22:14:28 2023
             State : clean 
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : clr:5  (local to host clr)
              UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
            Events : 39

    Number   Major   Minor   RaidDevice State
       3       8       65        0      active sync   /dev/sde1
       1       8       33        1      active sync   /dev/sdc1
       4       8       49        2      active sync   /dev/sdd1

       5       8       17        -      spare   /dev/sdb1  #作为备份盘

(6) Erstellen Sie die Konfigurationsdatei /etc/mdadm.conf, um die Verwaltung der Soft-RAID-Konfiguration zu erleichtern, z. B. Start und Stopp;

[root@clr ~]# cd /data
[root@clr ~]# umount /data  #先解挂载
[root@clr ~]# vim /etc/mdadm.conf
#DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

[root@clr /data]# mdadm --detail --scan >> /etc/mdadm.conf  #从/etc/mdadm.conf这个配置文件中,详细扫描磁盘文件信息
[root@clr /data]# cat /etc/mdadm.conf
DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
ARRAY /dev/md5 metadata=1.2 spares=1 name=clr:5 UUID=014f444a:a42f81ca:4c8554f3:4a66d44d
[root@clr /data]# mdadm -S /dev/md5 #停止raid5
mdadm: stopped /dev/md5
[root@clr /data]# ls /dev/md5
ls: 无法访问/dev/md5: 没有那个文件或目录
[root@clr /data]# mdadm -A -s /dev/md5  #再次启动raid5
mdadm: /dev/md5 has been started with 3 drives and 1 spare.
[root@clr /data]# ls /dev/md5
/dev/md5  #用于启动设备的配置文件

3.2 Beispiel: Soft-Create-RAID10

[root@clr ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   60G  0 disk 
├─sda1   8:1    0   37G  0 part /
├─sda2   8:2    0    1K  0 part 
└─sda5   8:5    0  3.9G  0 part [SWAP]
sdb      8:16   0   20G  0 disk 
sdc      8:32   0   20G  0 disk 
sdd      8:48   0   20G  0 disk 
sde      8:64   0   20G  0 disk 
sdf      8:80   0   20G  0 disk 
sdg      8:96   0   20G  0 disk 
sr0     11:0    1  4.4G  0 rom  /run/media/root/CentOS 7 x86_64
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdb
欢迎使用 fdisk (util-linux 2.23.2)

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0xf4c1985f 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
    
    K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdc
欢迎使用 fdisk (util-linux 2.23.2)

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x69f7ff46 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
    
    K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdd
欢迎使用 fdisk (util-linux 2.23.2)

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x01f4fd93 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
    
    K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   60G  0 disk 
├─sda1   8:1    0   37G  0 part /
├─sda2   8:2    0    1K  0 part 
└─sda5   8:5    0  3.9G  0 part [SWAP]
sdb      8:16   0   20G  0 disk 
└─sdb1   8:17   0   20G  0 part 
sdc      8:32   0   20G  0 disk 
└─sdc1   8:33   0   20G  0 part 
sdd      8:48   0   20G  0 disk 
└─sdd1   8:49   0   20G  0 part 
sde      8:64   0   20G  0 disk 
sdf      8:80   0   20G  0 disk 
sdg      8:96   0   20G  0 disk 
sr0     11:0    1  4.4G  0 rom  /run/media/root/CentOS 7 x86_64
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sde
欢迎使用 fdisk (util-linux 2.23.2)

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x41c9be36 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
    
    K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdf
欢迎使用 fdisk (util-linux 2.23.2)

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x81444ea8 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
    
    K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdg
欢迎使用 fdisk (util-linux 2.23.2)

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x3c9ae9f9 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
    
    K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   60G  0 disk 
├─sda1   8:1    0   37G  0 part /
├─sda2   8:2    0    1K  0 part 
└─sda5   8:5    0  3.9G  0 part [SWAP]
sdb      8:16   0   20G  0 disk 
└─sdb1   8:17   0   20G  0 part 
sdc      8:32   0   20G  0 disk 
└─sdc1   8:33   0   20G  0 part 
sdd      8:48   0   20G  0 disk 
└─sdd1   8:49   0   20G  0 part 
sde      8:64   0   20G  0 disk 
└─sde1   8:65   0   20G  0 part 
sdf      8:80   0   20G  0 disk 
└─sdf1   8:81   0   20G  0 part 
sdg      8:96   0   20G  0 disk 
└─sdg1   8:97   0   20G  0 part 
sr0     11:0    1  4.4G  0 rom  /run/media/root/CentOS 7 x86_64
[root@clr ~]# mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1 
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 20953088K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@clr ~]# mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1 
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 20953088K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Apr  9 00:42:30 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:43:30 2023
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 60% complete

              Name : clr:0  (local to host clr)
              UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
            Events : 9

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Sun Apr  9 00:43:24 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:43:37 2023
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 17% complete

              Name : clr:1  (local to host clr)
              UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
            Events : 2

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Sun Apr  9 00:43:24 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:44:23 2023
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 59% complete

              Name : clr:1  (local to host clr)
              UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
            Events : 9

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Apr  9 00:42:30 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:44:18 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : clr:0  (local to host clr)
              UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
            Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Sun Apr  9 00:43:24 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:44:30 2023
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 68% complete

              Name : clr:1  (local to host clr)
              UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
            Events : 10

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Apr  9 00:42:30 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:44:18 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : clr:0  (local to host clr)
              UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
            Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Sun Apr  9 00:43:24 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:45:03 2023
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 94% complete

              Name : clr:1  (local to host clr)
              UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
            Events : 15

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Sun Apr  9 00:43:24 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:45:10 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : clr:1  (local to host clr)
              UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
            Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@clr ~]# mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
[root@clr ~]# mdadm -D /dev/md10
/dev/md10:
           Version : 1.2
     Creation Time : Sun Apr  9 00:46:08 2023
        Raid Level : raid0
        Array Size : 41871360 (39.93 GiB 42.88 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:46:08 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

        Chunk Size : 512K

Consistency Policy : none

              Name : clr:10  (local to host clr)
              UUID : df79bdfb:70f7d0ac:2093e2d9:6ab5acc6
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       9        0        0      active sync   /dev/md0
       1       9        1        1      active sync   /dev/md1
[root@clr ~]# watch -n 5 'cat /proc/mdstat'
[root@clr ~]# mkfs -t xfs /dev/md10
meta-data=/dev/md10              isize=512    agcount=16, agsize=654208 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10467328, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5112, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@clr ~]# mkdir /data
[root@clr ~]# mount /dev/md10 /data
[root@clr ~]# echo 'DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1' > /etc/mdadm.conf
[root@clr ~]#  mdadm --detail --scan >> /etc/mdadm.conf
[root@clr ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@clr ~]# umount /dev/md10
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# ls /dev/md10
ls: 无法访问/dev/md10: 没有那个文件或目录
[root@clr ~]# mdadm -A /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md0 -f /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Apr  9 00:42:30 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:49:39 2023
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 1
     Spare Devices : 0

Consistency Policy : resync

              Name : clr:0  (local to host clr)
              UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
            Events : 19

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1

       0       8       17        -      faulty   /dev/sdb1
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md1 -f /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Sun Apr  9 00:43:24 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:50:42 2023
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 1
     Spare Devices : 0

Consistency Policy : resync

              Name : clr:1  (local to host clr)
              UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
            Events : 19

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       65        1      active sync   /dev/sde1

       0       8       49        -      faulty   /dev/sdd1
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set device faulty failed for /dev/sdc1:  Device or resource busy
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Sun Apr  9 00:42:30 2023
        Raid Level : raid1
        Array Size : 20953088 (19.98 GiB 21.46 GB)
     Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  9 00:49:39 2023
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 1
     Spare Devices : 0

Consistency Policy : resync

              Name : clr:0  (local to host clr)
              UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
            Events : 19

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1

       0       8       17        -      faulty   /dev/sdb1
[root@clr ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set device faulty failed for /dev/sdc1:  Device or resource busy
[root@clr ~]# 

Guess you like

Origin blog.csdn.net/cailirong123/article/details/129996176