記事ディレクトリ
1.レイド
1.1 RAID ディスク表示の概要
■ Redundant Array of Independent Disks の略語で、中国語の略語は独立したディスクの冗長アレイ
■置く複数の独立した物理ハードディスクさまざまな方法で組み合わせて、ハードディスクグループ(論理ハードディスク)、より高いストレージパフォーマンスとデータバックアップ技術の提供
■ディスク アレイを構成するさまざまな方法が呼び出されます。RAID レベル(RAID レベル)
常用的RAID级别
■ RAID0、RAID1、RAID5、RAID6、RAID1+0 など。
1.2 RAID 0 (ストライプ ストレージ)
● RAID0連続ビットまたはバイト単位データを単位に分割し、並列読み取り/書き込み複数のディスク上にあるため、データ転送速度が高い、しかしそれデータの冗長性なし
● RAID 0 のみ単にパフォーマンスを向上させる、データの信頼性を保証するものではありません。ディスクの 1 つに障害が発生すると、すべてのデータに影響します
● RAID 0 は適用できません。高いデータ セキュリティ要件機会
1.3 RAID 1 (ミラーストレージ)
●合格データ冗長性のためのディスク データ ミラーリング、独立したディスクのペア相互バックアップデータの生成
●生データがビジー状態の場合、ミラー コピーから直接データを読み取る、だから RAID 1 は読み取りパフォーマンスの向上
● RAID 1 は、最高単価、しかし高いデータ セキュリティと可用性を提供. ディスクに障害が発生した場合、システムは障害データを再編成することなく、読み書き用のミラー ディスクに自動的に切り替えることができます。
1.4 RAID 5 ディスクアレイの概要
RAID 5
● N (N>=3) 個のディスクがアレイを形成し、1 つのデータから N-1 個のストリップが生成されます、 としても1検証データ、合計 N 個のデータのコピーが N 個のディスク上の循環バランスに保存されます
●N 台のディスクの同時読み取りと書き込み、高い読み取りパフォーマンス、しかし、検証メカニズムの問題により、書き込みパフォーマンスは比較的低いです
●(N-1)/N ディスク使用率
●高い信頼性、すべてのデータに影響を与えずに、1 つのディスクが損傷してもよい
1.5 RAID 6 ディスクアレイの概要
RAID 6
● N (N>=4) 個のディスクがアレイを形成し、(N-2)/Nディスク使用率
● RAID 5 と比較して、RAID 6 は増加します第 2 独立パリティ情報ブロック
● 2 つの独立したパリティ システムは、異なるアルゴリズムを使用します。同時に 2 台のディスクに障害が発生しても、データの使用には影響しません
● RAID 5 に比べて「書き込みロス」が大きいため、書き込み性能が劣る
1.6 RAID 1+0 ディスクアレイの概要
RAID 1+0 ((最初にミラーリングしてからストライピング)
● N (偶数、N>=4) ディスクペアワイズ ミラー イメージ戻る、RAID 0 に再結合する
● N/2 のディスク使用率
●同時に N/2 個のディスクに書き込み、同時に N 個のディスクに読み取る
●高性能と高信頼性
●故障率は1/3
RAID 0+1 (最初にストリップ、次にミラー)
●読み書き性能は RAID 10 と同等
● RAID 10 より安全性が低い
●故障率は2/3
1.7 アレイカードの紹介
■ アレイカードはRAID機能を実装するボード
■ 通常、I/O プロセッサ、ハードディスク コントローラ、ハードディスク コネクタ、キャッシュなどの一連のコンポーネントで構成されます。
■ 異なる RAID カードが異なる RAID 機能をサポートします
● たとえば、RAID0、RAID1、RAID5、RAID10 などをサポートします。
■ RAID カードのインターフェースタイプ
●IDEインターフェース、SCSI インターフェース、SATA インターフェイスおよび SAS インターフェイス
2. ハード RAID はディスク アレイを作成します
创建RAID5,步骤如下所示:
(1) ディスクを作成します。
(2) 迅速な初期化操作。
(3) ホット バックアップ ディスクを作成します。
补充:
ctrl +n/ctrl+p: 左右の切り替えを実現します。
3. ソフト RAID はディスク アレイを作成します
3.1 例: RAID5 のソフト作成
创建 RAID5磁盘阵列,步骤如下所示:
(1) mdadm パッケージがインストールされているかどうかを確認します。
[root@clr ~]# rpm -q mdadm #查看是否已安装mdadm安装包
mdadm-4.1-6.el7.x86_64
(2) fdisk ツールを使用して、新しいディスク デバイス /dev/sdb、/dev/sdc、/dev/sdd、/dev/sde をプライマリ パーティション sdb1、sdc1、sdd1、sde1 に分割し、その ID 番号を変更します。 「fd」のパーティションタイプ。
[root@clr ~]# lsblk #查看磁盘划分的分区情况
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
└─sdb1 8:17 0 20G 0 part
sdc 8:32 0 20G 0 disk
└─sdc1 8:33 0 20G 0 part
sdd 8:48 0 20G 0 disk
└─sdd1 8:49 0 20G 0 part
sde 8:64 0 20G 0 disk
└─sde1 8:65 0 20G 0 part
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
(3) RAID デバイスを作成します。
[root@clr ~]# mdadm -Cv /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1 #创建raid5并命名为md5
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20953088K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@clr ~]# mdadm -D /dev/md5 #查看创建过程
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Apr 6 21:53:00 2023
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 4
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 27% complete
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 5
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 spare rebuilding /dev/sdd1
3 8 65 - spare /dev/sde1
[root@clr ~]# cat /proc/mdstat #查看创建进程
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdd1[4] sde1[3](S) sdc1[1] sdb1[0]
41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[========>............] recovery = 43.7% (9167232/20953088) finish=1.6min speed=120373K/sec
unused devices: <none>
[root@clr ~]# watch -n 5 'cat /proc/mdstat' #每5秒钟监听一次,创建的过程
mdadm -E [パーティション デバイス名]: 指定されたパーティション デバイスが襲撃されたかどうかを確認します。
[root@clr ~]# mdadm -E /dev/sdb1 #检查某个指定分区设备,是否做过raid
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Name : clr:5 (local to host clr)
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5 #用于做raid5的磁盘阵列
Raid Devices : 3
Avail Dev Size : 41906176 sectors (19.98 GiB 21.46 GB)
Array Size : 41906176 KiB (39.96 GiB 42.91 GB)
Data Offset : 34816 sectors
Super Offset : 8 sectors
Unused Space : before=34664 sectors, after=0 sectors
State : clean
Device UUID : dff29ecc:4942ac37:a22d145f:a18c8b44
Update Time : Thu Apr 6 21:55:16 2023
Bad Block Log : 512 entries available at offset 136 sectors
Checksum : aedc2043 - correct
Events : 18
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
(4) ファイルシステムを作成してマウントします。
[root@clr ~]# mkfs -t xfs /dev/md5 #将分区/dev/md5格式化为xfs类型
meta-data=/dev/md5 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@clr ~]# mkdir /data
[root@clr ~]# mount /dev/md5 /data #将/dev/md5挂载到/data目录下
[root@clr ~]# df -hT
文件系统 类型 容量 已用 可用 已用% 挂载点
devtmpfs devtmpfs 2.0G 0 2.0G 0% /dev
tmpfs tmpfs 2.0G 0 2.0G 0% /dev/shm
tmpfs tmpfs 2.0G 13M 2.0G 1% /run
tmpfs tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup
/dev/sda1 xfs 38G 5.4G 32G 15% /
tmpfs tmpfs 394M 32K 394M 1% /run/user/0
/dev/sr0 iso9660 4.4G 4.4G 0 100% /run/media/root/CentOS 7 x86_64
/dev/md5 xfs 40G 33M 40G 1% /data #挂载成功
(5) 障害回復を実現する。
[root@clr ~]# mdadm /dev/md5 -f /dev/sdb1 #模拟raid5中的/dev/sdb1出现故障
mdadm: set /dev/sdb1 faulty in /dev/md5
[root@clr ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Apr 6 22:11:14 2023
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 9% complete #正在重新创建磁盘阵列
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 21
Number Major Minor RaidDevice State
3 8 65 0 spare rebuilding /dev/sde1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 active sync /dev/sdd1
0 8 17 - faulty /dev/sdb1
[root@clr ~]# cat /proc/mdstat #查看创建进度
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdd1[4] sde1[3] sdc1[1] sdb1[0](F)
41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
[============>........] recovery = 63.8% (13387776/20953088) finish=1.0min speed=125660K/sec
unused devices: <none>
[root@clr ~]# mdadm /dev/md5 -r /dev/sdb1 #将出现故障的坏盘/dev/sdb1移除磁盘阵列
mdadm: hot removed /dev/sdb1 from /dev/md5
[root@clr ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Thu Apr 6 22:14:02 2023
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 38
Number Major Minor RaidDevice State
3 8 65 0 active sync /dev/sde1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 active sync /dev/sdd1
[root@clr ~]# mdadm /dev/md5 -a /dev/sdb1 #将分区/dev/sdb1再次放回磁盘阵列
mdadm: added /dev/sdb1
[root@clr ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Thu Apr 6 21:52:16 2023
Raid Level : raid5
Array Size : 41906176 (39.96 GiB 42.91 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Apr 6 22:14:28 2023
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : clr:5 (local to host clr)
UUID : 014f444a:a42f81ca:4c8554f3:4a66d44d
Events : 39
Number Major Minor RaidDevice State
3 8 65 0 active sync /dev/sde1
1 8 33 1 active sync /dev/sdc1
4 8 49 2 active sync /dev/sdd1
5 8 17 - spare /dev/sdb1 #作为备份盘
(6) /etc/mdadm.conf 構成ファイルを作成して、開始や停止などのソフト RAID 構成の管理を容易にします。
[root@clr ~]# cd /data
[root@clr ~]# umount /data #先解挂载
[root@clr ~]# vim /etc/mdadm.conf
#DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
[root@clr /data]# mdadm --detail --scan >> /etc/mdadm.conf #从/etc/mdadm.conf这个配置文件中,详细扫描磁盘文件信息
[root@clr /data]# cat /etc/mdadm.conf
DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
ARRAY /dev/md5 metadata=1.2 spares=1 name=clr:5 UUID=014f444a:a42f81ca:4c8554f3:4a66d44d
[root@clr /data]# mdadm -S /dev/md5 #停止raid5
mdadm: stopped /dev/md5
[root@clr /data]# ls /dev/md5
ls: 无法访问/dev/md5: 没有那个文件或目录
[root@clr /data]# mdadm -A -s /dev/md5 #再次启动raid5
mdadm: /dev/md5 has been started with 3 drives and 1 spare.
[root@clr /data]# ls /dev/md5
/dev/md5 #用于启动设备的配置文件
3.2 例: RAID10 のソフト作成
[root@clr ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
sdc 8:32 0 20G 0 disk
sdd 8:48 0 20G 0 disk
sde 8:64 0 20G 0 disk
sdf 8:80 0 20G 0 disk
sdg 8:96 0 20G 0 disk
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdb
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0xf4c1985f 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdc
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x69f7ff46 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdd
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x01f4fd93 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
└─sdb1 8:17 0 20G 0 part
sdc 8:32 0 20G 0 disk
└─sdc1 8:33 0 20G 0 part
sdd 8:48 0 20G 0 disk
└─sdd1 8:49 0 20G 0 part
sde 8:64 0 20G 0 disk
sdf 8:80 0 20G 0 disk
sdg 8:96 0 20G 0 disk
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sde
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x41c9be36 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdf
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x81444ea8 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# echo -e 'n\n\n\n\n\nt\nfd\nw\n' | fdisk /dev/sdg
欢迎使用 fdisk (util-linux 2.23.2)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
Device does not contain a recognized partition table
使用磁盘标识符 0x3c9ae9f9 创建新的 DOS 磁盘标签。
命令(输入 m 获取帮助):Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): Using default response p
分区号 (1-4,默认 1):起始 扇区 (2048-41943039,默认为 2048):将使用默认值 2048
Last 扇区, +扇区 or +size{
K,M,G} (2048-41943039,默认为 41943039):将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB
命令(输入 m 获取帮助):已选择分区 1
Hex 代码(输入 L 列出所有代码):已将分区“Linux”的类型更改为“Linux raid autodetect”
命令(输入 m 获取帮助):The partition table has been altered!
Calling ioctl() to re-read partition table.
正在同步磁盘。
[root@clr ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 60G 0 disk
├─sda1 8:1 0 37G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 3.9G 0 part [SWAP]
sdb 8:16 0 20G 0 disk
└─sdb1 8:17 0 20G 0 part
sdc 8:32 0 20G 0 disk
└─sdc1 8:33 0 20G 0 part
sdd 8:48 0 20G 0 disk
└─sdd1 8:49 0 20G 0 part
sde 8:64 0 20G 0 disk
└─sde1 8:65 0 20G 0 part
sdf 8:80 0 20G 0 disk
└─sdf1 8:81 0 20G 0 part
sdg 8:96 0 20G 0 disk
└─sdg1 8:97 0 20G 0 part
sr0 11:0 1 4.4G 0 rom /run/media/root/CentOS 7 x86_64
[root@clr ~]# mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20953088K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@clr ~]# mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20953088K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:43:30 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 60% complete
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 9
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:43:37 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 17% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 2
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:23 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 59% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 9
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:18 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 17
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:30 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 68% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 10
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:44:18 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 17
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:45:03 2023
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 94% complete
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 15
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:45:10 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 17
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
[root@clr ~]# mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
[root@clr ~]# mdadm -D /dev/md10
/dev/md10:
Version : 1.2
Creation Time : Sun Apr 9 00:46:08 2023
Raid Level : raid0
Array Size : 41871360 (39.93 GiB 42.88 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:46:08 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : clr:10 (local to host clr)
UUID : df79bdfb:70f7d0ac:2093e2d9:6ab5acc6
Events : 0
Number Major Minor RaidDevice State
0 9 0 0 active sync /dev/md0
1 9 1 1 active sync /dev/md1
[root@clr ~]# watch -n 5 'cat /proc/mdstat'
[root@clr ~]# mkfs -t xfs /dev/md10
meta-data=/dev/md10 isize=512 agcount=16, agsize=654208 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10467328, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5112, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@clr ~]# mkdir /data
[root@clr ~]# mount /dev/md10 /data
[root@clr ~]# echo 'DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1' > /etc/mdadm.conf
[root@clr ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@clr ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@clr ~]# umount /dev/md10
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# ls /dev/md10
ls: 无法访问/dev/md10: 没有那个文件或目录
[root@clr ~]# mdadm -A /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md0 -f /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:49:39 2023
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
0 8 17 - faulty /dev/sdb1
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md1 -f /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md1
[root@clr ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Apr 9 00:43:24 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:50:42 2023
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : clr:1 (local to host clr)
UUID : 4b68d596:7d1aa620:86e74e4f:656a4c4e
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 65 1 active sync /dev/sde1
0 8 49 - faulty /dev/sdd1
[root@clr ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@clr ~]# mdadm -A /dev/md10 /dev/md0 /dev/md1
mdadm: /dev/md10 has been started with 2 drives.
[root@clr ~]# ls /dev/md10
/dev/md10
[root@clr ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set device faulty failed for /dev/sdc1: Device or resource busy
[root@clr ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Apr 9 00:42:30 2023
Raid Level : raid1
Array Size : 20953088 (19.98 GiB 21.46 GB)
Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 9 00:49:39 2023
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : clr:0 (local to host clr)
UUID : bf6c1129:0d2dc4d2:ad8b8bab:e15f1d2a
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
0 8 17 - faulty /dev/sdb1
[root@clr ~]# mdadm /dev/md0 -f /dev/sdc1
mdadm: set device faulty failed for /dev/sdc1: Device or resource busy
[root@clr ~]#