Artikelverzeichnis
1. RAID
1.1 Einführung in die RAID-Festplattenanzeige
■ ist die Abkürzung für Redundant Array of Independent Disks, die chinesische Abkürzung lautetRedundantes Array unabhängiger Festplatten
■ setzenMehrere unabhängige physische Festplattenauf verschiedene Weise kombiniert, um a zu bildenFestplattengruppe(logische Festplatte) und damit eine höhere Speicherleistung undBereitstellung von Datensicherungstechnologie
■ Es werden verschiedene Arten der Bildung von Plattenarrays genanntRAID-Level(RAID-Stufen)
常用的RAID级别
■ RAID0, RAID1, RAID5, RAID6, RAID1+0 usw.
1.2 RAID 0 (Striped-Speicher)
● RAID 0 fortlaufendin Bits oder BytesTeilen Sie die Daten in Einheiten auf,paralleles Lesen/Schreibenauf mehreren Platten, alsoHat eine hohe Datenübertragungsrate,aber eskeine Datenredundanz
● RAID 0 ist nurEinfach Leistung steigern, gibt keine Garantien für die Zuverlässigkeit der Daten, undDer Ausfall einer der Festplatten wirkt sich auf alle Daten aus
● RAID 0 kann nicht angewendet werdenHohe Anforderungen an die DatensicherheitGelegenheit
1.3 RAID 1 (Spiegelspeicher)
● BestandenFestplattendatenspiegelung für Datenredundanz, auf Paaren unabhängiger FestplattenGenerieren Sie gegenseitige Backup-Daten
● Wenn die Rohdaten beschäftigt sind, kann esDaten direkt von der Spiegelkopie lesen, also RAID 1 kannVerbessern Sie die Leseleistung
● RAID 1 ist dashöchsten Stückkosten,AberBietet hohe Datensicherheit und Verfügbarkeit. Wenn eine Platte ausfällt, kann das System zum Lesen und Schreiben automatisch auf die Spiegelplatte umschalten, ohne die ausgefallenen Daten neu zu organisieren
1.4 Einführung in RAID 5 Disk Array
RAID 5
● N (N>=3) Platten bilden ein Array,Ein Datenelement erzeugt N-1 Streifen, ebenso gut wie1 Verifizierungsdaten, werden insgesamt N Kopien von Daten in einer Umlaufbilanz auf N Platten gespeichert
●Gleichzeitiges Lesen und Schreiben von N Festplatten, hohe Leseleistung, aber aufgrund des Problems des Verifikationsmechanismus ist die Schreibleistung relativ gering
●(N-1)/N Plattenauslastung
● Hohe Zuverlässigkeit,Eine Festplatte darf beschädigt werden, ohne dass alle Daten davon betroffen sind
1.5 Einführung in RAID 6 Disk Array
RAID 6
● N (N>=4) Platten bilden ein Array,(N-2)/NFestplattenauslastung
● Verglichen mit RAID 5 erhöht sich RAID 6Zweiter unabhängiger Paritätsinformationsblock
● Zwei unabhängige Paritätssysteme verwenden unterschiedliche Algorithmen, auch wennDer gleichzeitige Ausfall von zwei Festplatten hat keinen Einfluss auf die Datennutzung
● Im Vergleich zu RAID 5 gibt es einen größeren "Schreibverlust", daher ist die Schreibleistung schlechter
1.6 Einführung in RAID 1+0 Disk Arrays
RAID 1+0 ((zuerst Spiegelung, dann Striping)
● N (gerade Zahl, N>=4) Festplattenpaarweises Spiegelbildzurück,In ein RAID 0 rekombinieren
● N/2 Plattenauslastung
●Schreiben Sie gleichzeitig auf N/2 Festplatten und lesen Sie gleichzeitig auf N Festplatten
●Hohe Leistung und hohe Zuverlässigkeit
● Die Ausfallrate beträgt 1/3
RAID 0+1 (zuerst Strip, dann Mirror)
● Die Lese- und Schreibleistung entspricht der von RAID 10
● weniger sicher als RAID 10
● Die Ausfallrate beträgt 2/3
1.7 Einführung in die Array-Karte
■ Array-Karten verwendet werdenDas Board, das die RAID-Funktion implementiert
■ Es besteht normalerweise aus einer Reihe von Komponenten wie E/A-Prozessor, Festplattencontroller, Festplattenanschluss und Cache
■ Unterschiedliche RAID-Karten unterstützen unterschiedliche RAID-Funktionen
● Unterstützt beispielsweise RAID0, RAID1, RAID5, RAID10 usw.
■ Schnittstellentyp der RAID-Karte
● IDE-Schnittstelle,SCSI-Schnittstelle, SATA-Schnittstelle und SAS-Schnittstelle
2. Hard RAID erstellt ein Disk-Array
创建RAID5,步骤如下所示:
(1) Erstellen Sie eine Festplatte;
(2) Schnellinitialisierungsoperation;
(3) Erstellen Sie eine Hot-Backup-Festplatte;
补充:
ctrl +n/ctrl+p: linkes und rechtes Umschalten erreichen;
3. Soft-RAID erstellt ein Disk-Array
3.1 Beispiel: Soft-Create-RAID5
创建 RAID5磁盘阵列,步骤如下所示:
(1) Prüfen Sie, ob das mdadm-Paket installiert ist;
[root@clr ~]# rpm -q mdadm #查看是否已安装mdadm安装包
mdadm-4.1-6.el7.x86_64
(2) Verwenden Sie das fdisk-Tool, um die neuen Festplattengeräte /dev/sdb, /dev/sdc, /dev/sdd, /dev/sde in die primären Partitionen sdb1, sdc1, sdd1, sde1 aufzuteilen, und ändern Sie die ID-Nummer der Partitionstyp für "fd";
[root@clr ~]# lsblk #查看磁盘划分的分区情况
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
└─sdb1 8:17 0 20G 0 part
sdc 8:32 0 20G 0 disk
└─sdc1 8:33 0 20G 0 part
sdd 8:48 0 20G 0 disk
└─sdd1 8:49 0 20G 0 part
sde 8:64 0 20G 0 disk
└─sde1 8:65 0 20G 0 part
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
(3) Erstellen Sie ein RAID-Gerät;
[root@clr ~]# mdadm -Cv /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1 #创建raid5并命名为md5
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20953088K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@clr ~]# mdadm -D /dev/md5 #查看创建过程
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Apr 6 21:53:00 2023
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 4
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 27% complete
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 5
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 spare rebuilding /dev/sdd1
3 8 65 - spare /dev/sde1
[root@clr ~]# cat /proc/mdstat #查看创建进程
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdd1[4] sde1[3](S) sdc1[1] sdb1[0]
41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[========>............] recovery = 43.7% (9167232/20953088) finish=1.6min speed=120373K/sec
unused devices: <none>
[root@clr ~]# watch -n 5 'cat /proc/mdstat' #每5秒钟监听一次,创建的过程
mdadm -E [Name des Partitionsgeräts]: prüft, ob ein bestimmtes Partitionsgerät überfallen wurde;
[root@clr ~]# mdadm -E /dev/sdb1 #检查某个指定分区设备,是否做过raid
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Name : clr:5 (local to host clr)
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5 #用于做raid5的磁盘阵列
Raid Devices : 3
Avail Dev Size : 41906176 sectors (19.98 GiB 21.46 GB)
Array Size : 41906176 KiB (39.96 GiB 42.91 GB)
Data Offset : 34816 sectors
Super Offset : 8 sectors
Unused Space : before=34664 sectors, after=0 sectors
State : clean
Device UUID : dff29ecc:4942ac37:a22d145f:a18c8b44
Update Time : Thu Apr 6 21:55:16 2023
Bad Block Log : 512 entries available at offset 136 sectors
Checksum : aedc2043 - correct
Events : 18
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
(4) Erstellen und Mounten des Dateisystems;
[root@clr ~]# mkfs -t xfs /dev/md5 #将分区/dev/md5格式化为xfs类型
meta-data=/dev/md5 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@clr ~]# mkdir /data
[root@clr ~]# mount /dev/md5 /data #将/dev/md5挂载到/data目录下
[root@clr ~]# df -hT
文件系统 类型 容量 已用 可用 已用% 挂载点
devtmpfs devtmpfs 2.0G 0 2.0G 0% /dev
tmpfs tmpfs 2.0G 0 2.0G 0% /dev/shm
tmpfs tmpfs 2.0G 13M 2.0G 1% /run
tmpfs tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup
/dev/sda1 xfs 38G 5.4G 32G 15% /
tmpfs tmpfs 394M 32K 394M 1% /run/user/0
/dev/sr0 iso9660 4.4G 4.4G 0 100% /run/media/root/CentOS 7 x86_64
/dev/md5 xfs 40G 33M 40G 1% /data #挂载成功
(5) Fehlerwiederherstellung realisieren;
[root@clr ~]# mdadm /dev/md5 -f /dev/sdb1 #模拟raid5中的/dev/sdb1出现故障
mdadm: set /dev/sdb1 faulty in /dev/md5
[root@clr ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Apr 6 22:11:14 2023
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 9% complete #正在重新创建磁盘阵列
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 21
Number Major Minor RaidDevice State
3 8 65 0 spare rebuilding /dev/sde1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 active sync /dev/sdd1
0 8 17 - faulty /dev/sdb1
[root@clr ~]# cat /proc/mdstat #查看创建进度
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdd1[4] sde1[3] sdc1[1] sdb1[0](F)
41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
[============>........] recovery = 63.8% (13387776/20953088) finish=1.0min speed=125660K/sec
unused devices: <none>
[root@clr ~]# mdadm /dev/md5 -r /dev/sdb1 #将出现故障的坏盘/dev/sdb1移除磁盘阵列
mdadm: hot removed /dev/sdb1 from /dev/md5
[root@clr ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Thu Apr 6 22:14:02 2023
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 38
Number Major Minor RaidDevice State
3 8 65 0 active sync /dev/sde1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 active sync /dev/sdd1
[root@clr ~]# mdadm /dev/md5 -a /dev/sdb1 #将分区/dev/sdb1再次放回磁盘阵列
mdadm: added /dev/sdb1
[root@clr ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Apr 6 22:14:28 2023
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 39
Number Major Minor RaidDevice State
3 8 65 0 active sync /dev/sde1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 active sync /dev/sdd1
5 8 17 - spare /dev/sdb1 #作为备份盘
(6) Erstellen Sie die Konfigurationsdatei /etc/mdadm.conf, um die Verwaltung der Soft-RAID-Konfiguration zu erleichtern, z. B. Start und Stopp;
[root@clr ~]# cd /data
[root@clr ~]# umount /data #先解挂载
[root@clr ~]# vim /etc/mdadm.conf
#DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
[root@clr /data]# mdadm --detail --scan >> /etc/mdadm.conf #从/etc/mdadm.conf这个配置文件中,详细扫描磁盘文件信息
[root@clr /data]# cat /etc/mdadm.conf
DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
ARRAY /dev/md5 metadata=1.2 spares=1 name=clr:5 UUID=014f444a:a42f81ca:4c8554f3:4a66d44d
[root@clr /data]# mdadm -S /dev/md5 #停止raid5
mdadm: stopped /dev/md5
[root@clr /data]# ls /dev/md5
ls: 无法访问/dev/md5: 没有那个文件或目录
[root@clr /data]# mdadm -A -s /dev/md5 #再次启动raid5
mdadm: /dev/md5 has been started with 3 drives and 1 spare.
[root@clr /data]# ls /dev/md5
/dev/md5 #用于启动设备的配置文件
3.2 Beispiel: Soft-Create-RAID10
[root@clr ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
sdc 8:32 0 20G 0 disk
sdd 8:48 0 20G 0 disk
sde 8:64 0 20G 0 disk
sdf 8:80 0 20G 0 disk
sdg 8:96 0 20G 0 disk
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdb
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0xf4c1985f 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdc
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x69f7ff46 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdd
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x01f4fd93 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
└─sdb1 8:17 0 20G 0 part
sdc 8:32 0 20G 0 disk
└─sdc1 8:33 0 20G 0 part
sdd 8:48 0 20G 0 disk
└─sdd1 8:49 0 20G 0 part
sde 8:64 0 20G 0 disk
sdf 8:80 0 20G 0 disk
sdg 8:96 0 20G 0 disk
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sde
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x41c9be36 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdf
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x81444ea8 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdg
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x3c9ae9f9 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
└─sdb1 8:17 0 20G 0 part
sdc 8:32 0 20G 0 disk
└─sdc1 8:33 0 20G 0 part
sdd 8:48 0 20G 0 disk
└─sdd1 8:49 0 20G 0 part
sde 8:64 0 20G 0 disk
└─sde1 8:65 0 20G 0 part
sdf 8:80 0 20G 0 disk
└─sdf1 8:81 0 20G 0 part
sdg 8:96 0 20G 0 disk
└─sdg1 8:97 0 20G 0 part
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
[root@clr ~]# mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20953088K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@clr ~]# mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20953088K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:43:30 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 60% complete
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 9
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:43:37 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 17% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 2
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:23 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 59% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 9
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:18 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 17
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:30 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 68% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 10
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:18 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 17
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:45:03 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 94% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 15
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:45:10 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 17
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
[root@clr ~]# mdadm -D /dev/md10
/dev/md10:
Version : 1.2
Creation Time : Sun Apr 9 00:46:08 2023
Raid Level : raid0
Array Size : 41871360 (39.93 GiB 42.88 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:46:08 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : clr:10 (local to host clr)
UUID : df79bdfb:70f7d0ac:2093e2d9:6ab5acc6
Events : 0
Number Major Minor RaidDevice State
0 9 0 0 active sync /dev/md0
1 9 1 1 active sync /dev/md1
[root@clr ~]# watch -n 5 'cat /proc/mdstat'
[root@clr ~]# mkfs -t xfs /dev/md10
meta-data=/dev/md10 isize=512 agcount=16, agsize=654208 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10467328, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5112, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@clr ~]# mkdir /data
[root@clr ~]# mount /dev/md10 /data
[root@clr ~]# echo 'DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1' > /etc/mdadm.conf
[root@clr ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@clr ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@clr ~]# umount /dev/md10
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# ls /dev/md10
ls: 无法访问/dev/md10: 没有那个文件或目录
[root@clr ~]# mdadm -A /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md0 -f /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:49:39 2023
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
0 8 17 - faulty /dev/sdb1
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md1 -f /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:50:42 2023
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 65 1 active sync /dev/sde1
0 8 49 - faulty /dev/sdd1
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set device faulty failed for /dev/sdc1: Device or resource busy
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:49:39 2023
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
0 8 17 - faulty /dev/sdb1
[root@clr ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set device faulty failed for /dev/sdc1: Device or resource busy
[root@clr ~]#