仮想マシンディスクアレイRAID0RAID1 RAID5 RAID10 RAIDとLVMを使用してデモを構築し、ディスクアレイテクノロジーを展開します。

** RAIDディスクの冗長アレイ**

RAIDテクノロジーは、複数のハードディスクデバイスをより大きな容量とより優れたセキュリティを備えたディスクアレイに結合し、データを複数のセグメントに分割して異なる物理ハードディスクデバイスに保存し、分散読み取りおよび書き込みテクノロジーを使用しますディスクアレイの全体的なパフォーマンスを向上させ、重要なデータの複数のコピーを異なる物理ハードディスクデバイスに同時に同期するために、非常に優れたデータ冗長性バックアップ効果を果たしています。
すべてには2つの側面があります。RAIDテクノロジーには、非常に優れたデータ冗長性バックアップ機能がありますが、それに応じてコストも増加します。電話帳が1冊しかないようですが、紛失を防ぐために連絡先番号情報を2部ずつ書きました。当然、電話帳を追加購入する必要があり、コストが高くなります。RAIDテクノロジーの本来の目的は、ハードディスク機器の購入コストを削減することですが、データ自体の価値と比較して、現代の企業はRAIDテクノロジーの冗長バックアップメカニズムとハードディスクスループットの向上を高く評価しています。宣伝する。つまり、RAIDは、ハードディスクデバイスが損傷した後のデータ損失の可能性を減らすだけでなく、ハードディスクデバイスの読み取りおよび書き込み速度も向上させるため、ほとんどのオペレーターまたは大中規模の企業に広く展開および適用されています。
コストと技術的な考慮事項については、さまざまなニーズに対してデータの信頼性と読み取りおよび書き込みパフォーマンスの間でトレードオフを行い、それぞれのニーズを満たすためにさまざまなソリューションを開発する必要があります。現在、少なくとも12のRAIDディスクアレイスキームがあり、Liu Dun氏は、RAID 0、RAID 1、RAID 5、およびRAID10の4つの最も一般的なスキームについて詳しく説明します。


RAID 0

RAID 0テクノロジーは、ハードウェアまたはソフトウェアによって複数の物理ハードディスクデバイス(少なくとも2つ)を直列に接続して大容量グループを形成し、各物理ハードディスクにデータを順番に書き込みます。このように、最も理想的な状態では、ハードディスクデバイスの読み取りおよび書き込みパフォーマンスは数倍向上しますが、いずれかのハードディスクに障害が発生すると、システム全体のデータが破壊されます。一般的に、RAID 0テクノロジーは、ハードディスクデータのスループットを効果的に向上させることができますが、データのバックアップおよびエラー修復機能はありません。
ここに写真の説明を挿入

2. RAID 1

RAID 1テクノロジーは、2つ以上のハードディスクデバイスをバインドします。データを書き込むとき、同時に複数のハードディスクデバイスにデータを書き込みます(データのミラーまたはバックアップと見なすことができます)。ハードディスクの1つに障害が発生すると、通常、データの通常の使用はホットスワッピングによってすぐに復元されます。

ここに写真の説明を挿入

3. RAID 5

RAID5テクノロジーは、ハードディスクデバイスのデータパリティ情報を他のハードディスクデバイスに保存します。RAID 5ディスクアレイグループ内のデータのパリティ情報は、特定のハードディスクデバイスに個別に保存されるのではなく、それ自体を除く他のすべてのハードディスクデバイスに保存されます。利点は、デバイスのいずれかが損傷後に損傷しないことです。致命的な欠陥が発生し、図の図のパリティ部分にデータのパリティ情報が格納されます。つまり、RAID 5テクノロジは実際にはハードディスク内の実際のデータ情報をバックアップしませんが、ハードディスクデバイスに問題が発生したときにパリティ情報を渡します。破損したデータの再構築を試みます。RAIDの「妥協」などの技術的機能は、ハードディスクデバイスの読み取りおよび書き込み速度、データセキュリティ、およびストレージコストを考慮に入れています。
ここに写真の説明を挿入
4. RAID 10

RAID 10テクノロジーは、RAID 1 + RAID0テクノロジーの「組み合わせ」です。図7-4に示すように、RAID 10テクノロジでは、少なくとも4つのハードディスクを形成する必要があります。まず、データセキュリティを確保するためにそれぞれ2つのRAID 1ディスクアレイを作成し、次に2つのRAID1ディスクアレイにRAID0を実装します。ハードディスクデバイスの読み取りおよび書き込み速度をさらに向上させるテクノロジー。このように、理論的には、同じグループ内のすべてのハードドライブが損傷していない限り、データを失うことなく、ハードドライブの最大50%が損傷する可能性があります。RAID10テクノロジーはRAID0の高い読み取りおよび書き込み速度とRAID1のデータセキュリティを継承しているため、RAID10のパフォーマンスはコストに関係なくRAID5を上回り、現在広く使用されているストレージテクノロジーです。
ここに写真の説明を挿入

参数	作用
-a	    检测设备名称
-n	    指定设备数量
-l	    指定RAID级别
-C      创建
-v	    显示过程
-f	    模拟设备损坏
-r	    移除设备
-Q	    查看摘要信息
-D	    查看详细信息
-S	    停止RAID磁盘阵列

mdadm   -C 创建
-v 显示创建的过程
-l 指定RAID的级别是0 1 5 10
-D 查看详细信息     完成之后可以查询
-f 模拟设备损坏 
-a 检测设备名称     -a yes 自动创建设备文件
-n 有几块盘 

删除占用mdadm /dev/md1 --fail /dev/sdc --remove /dev/sdc
mdadm --stop /dev/md1或者/绑定的文件 删除磁盘阵列
mdadm --remove /dev/md1或者/绑定的文件 删除磁盘阵列

仮想マシンは、ディスクアレイ実験RAID 10をシミュレートし、RAID5の操作プロセスを切り替えます。

1.最初に仮想マシン設定に4つのディスクを追加します
ここに写真の説明を挿入
。2 ディスクを照会し、mdadmコマンドを使用してディスクアレイを追加します。
ここに写真の説明を挿入

[root@lizhiqiang Desktop]# mdadm -Cv /dev/md/zhuxing -a yes -n 4 -l 10 /dev/sd[c-f]
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/zhuxing started.
其中 /dev/md/zhuyxing 可以更改为/dev/md[0-无限]但必须有/dev/md格式 /dev/sd[c-f]可以设置为/dev/sdc /dev/sdd /dev/sdf /dev/sde

3.メインディスクをフォーマットし、ホームディレクトリにフォルダを作成してメインディスクをマウントします

[root@lizhiqiang Desktop]# mkfs.ext4 /dev/md/zhuxing
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done   

[root@lizhiqiang Desktop]# cd ~
[root@lizhiqiang ~]# mkdir zhu
[root@lizhiqiang ~]# mount /dev/md/zhuxing /zhu
mount: mount point /zhu does not exist
[root@lizhiqiang ~]# mount /dev/md/zhuxing /root/zhu
其中在家目录中只写/zhu不可以挂载 只能用绝对路径挂载 显示挂载成功!

起動項目にディスクを追加し、-Dコマンドを使用してマウントされたパーティション情報を表示します

[root@lizhiqiang ~]# echo "/dev/md/zhuxing /zhu ext4 defaults 0 0" >> /etc/fstab
[root@lizhiqiang ~]# mdadm -D /dev/md/zhuxing
/dev/md/zhuxing:
        Version : 1.2
  Creation Time : Tue Oct 20 06:43:30 2020
     Raid Level : raid10
     Array Size : 41909248 (39.97 GiB 42.92 GB)
  Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Oct 20 06:52:37 2020
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 512K

           Name : lizhiqiang:zhuxing  (local to host lizhiqiang)
           UUID : 0a64eebf:9c26768e:88803e37:5ca70cdf
         Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       2       8       64        2      active sync   /dev/sde
       3       8       80        3      active sync   /dev/sdf

RAID10スイッチRAID5

最初にumountコマンドを使用してディスクをアンマウントし、次にプライマリディスクの使用を停止して、ディスクの浪費を防ぎます。アンマウントに成功したら、RAID5をマウントできます。

[root@lizhiqiang Desktop]# umount /dev/md/zhuxing
[root@lizhiqiang Desktop]# mdadm --stop /zhu
mdadm: error opening /zhu: Is a directory
[root@lizhiqiang Desktop]# mdadm --stop /dev/md/zhuxing
mdadm: stopped /dev/md/zhuxing
[root@lizhiqiang Desktop]# mdadm -D /dev/md/zhuxing
mdadm: cannot open /dev/md/zhuxing: No such file or directory

RAID 5をロードするには、mdadmコマンドを使用してフォーマットします。mdadmコマンドでは、バックアップディスクを追加し、-xコマンドを使用する必要があります。
この時点で、yを使用してパーティションが占有されていることを確認し、使用を強制的に成功させます。

[root@lizhiqiang Desktop]# mdadm -Cv /dev/md/zhuxing -a yes -n 3 -l 5 -x 1 /dev/sd[c-f]
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: /dev/sdc appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: /dev/sdd appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: /dev/sde appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: /dev/sdf appears to be part of a raid array:
    level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
mdadm: size set to 20954624K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/zhuxing started.
[root@lizhiqiang Desktop]# mdadm -D /dev/md/zhuxing
/dev/md/zhuxing:
        Version : 1.2
  Creation Time : Tue Oct 20 07:17:32 2020
     Raid Level : raid5
     Array Size : 41909248 (39.97 GiB 42.92 GB)
  Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
   Raid Devices : 3
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Oct 20 07:19:18 2020
          State : clean 
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : lizhiqiang:zhuxing  (local to host lizhiqiang)
           UUID : 19cec61b:0d1c4f49:972ba0ec:fad30b55
         Events : 32

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       4       8       64        2      active sync   /dev/sde

       3       8       80        -      spare   /dev/sdf

メインディスクをフォーマットし、メインディスクをマウントしてスタートアップアイテムにアクセスすると、RAID5が正常にインストールされます

[root@lizhiqiang Desktop]# mkfs.ext4 /dev/md/zhuxing
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done   

[root@lizhiqiang Desktop]# mount /dev/md/zhuxing /zhu
[root@lizhiqiang Desktop]# df -h
Filesystem                        Size  Used Avail Use% Mounted on
/dev/mapper/rhel_lizhiqiang-root   18G  3.5G   15G  20% /
devtmpfs                          985M     0  985M   0% /dev
tmpfs                             994M  140K  994M   1% /dev/shm
tmpfs                             994M  8.9M  986M   1% /run
tmpfs                             994M     0  994M   0% /sys/fs/cgroup
/dev/sdb1                         2.0G   33M  2.0G   2% /opo
/dev/sda1                         497M  125M  373M  26% /boot
/dev/md127                         40G   49M   38G   1% /zhu
[root@lizhiqiang Desktop]# echo "/dev/md/zhuxing /zhu ext4 defaults 0 0" >> /etc/fstab
[root@lizhiqiang Desktop]# df -h
Filesystem                        Size  Used Avail Use% Mounted on
/dev/mapper/rhel_lizhiqiang-root   18G  3.5G   15G  20% /
devtmpfs                          985M     0  985M   0% /dev
tmpfs                             994M  140K  994M   1% /dev/shm
tmpfs                             994M  8.9M  986M   1% /run
tmpfs                             994M     0  994M   0% /sys/fs/cgroup
/dev/sdb1                         2.0G   33M  2.0G   2% /opo
/dev/sda1                         497M  125M  373M  26% /boot
/dev/md127                         40G   49M   38G   1% /zhu

正常に動作しました!

**損傷したディスクアレイと修理**

RAID10ディスクアレイグループを実稼働環境に展開する目的は、ストレージデバイスのIO読み取りおよび書き込み速度とデータのセキュリティを向上させることですが、今回はローカルコンピュータでシミュレートされたハードディスクデバイスであるため、読み取りおよび書き込み速度を向上させることができない場合があります。直感的ではないので、劉ダン先生は、RAIDディスクアレイグループの被害にどう対処するかを生徒たちに説明し、運用・保守のポジションに入った後、緊急事態で急がないようにすることにしました。まず、物理ハードディスクデバイスが損傷していて正常に使用できなくなっていることを確認します。mdadmコマンドを使用してデバイスを削除し、RAIDディスクアレイグループのステータスが変更されていることを確認する必要があります。

アレイからハードドライブを取り外して、ハードドライブの損傷をシミュレートします。

mdadm /dev/md0 -f /dev/sdb    #把/dev/sdb从磁盘阵列/dev/md0中移除
mdadm -D /dev/md0             #查看磁盘这列/dev/md0详细信息,发现/dev/sdb状态从active变为faulty
umount /RAID                  #先重启系统,卸载/RAID目录
mdadm /dev/md0 -a /dev/sdb    #把新硬盘添加到RAID磁盘阵列中
mdadm -D /dev/md0             #查看磁盘阵列/dev/md0详细信息,/dev/sdb正在 spare rebuilding,然后变回active
mount -a                      #重新挂载

ディスクアレイ+バックアップディスク

RAID 5ディスクアレイを展開する場合、少なくとも3つのハードディスクが必要であり、別のバックアップハードディスクが必要です。
仮想マシンを復元し、RAID 5 +1バックアップディスクを展開します。

mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sd[b-e]           #用3块硬盘创建RAID 5磁盘阵列,再用1块作为备份盘
mdadm -D /dev/md0                                        #查看磁盘阵列详细信息,显示3个盘为actvie,1个盘为spare,RAID类型为RAID 5
mkfs.ext4 /dev/md0                                       
echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab    #往/etc/fstab文件追加挂载信息,以实现永久挂载
mkdir /RAID
mount -a
mdadm /dev/md0 -f /dev/sdb                               #故意移除RAID 5阵列中的其中一个盘(active的盘)
mdadm -D /dev/md0                                        #再查看磁盘阵列/dev/md0详细信息,显示备份盘自动定提上去并开始数据同步(spare rebuilding)。


おすすめ

転載: blog.csdn.net/SYH885/article/details/109186389
おすすめ