記事のディレクトリ
RAIDディスクアレイ
RAIDディスクアレイの概要
- RAIDは、ディスクアレイと呼ばれる独立ディスクの冗長アレイ(独立ディスクの冗長アレイ)です。主なものは、リソースの集中と統一された管理です。
- 複数の独立した物理ハードディスクをさまざまな方法でハードディスクグループに結合することは、論理的には大きなハードディスクと見なすことができるため、単一のハードディスクよりも高いストレージパフォーマンスを提供し、データバックアップテクノロジを提供します。
- ディスクアレイを構成するさまざまな方法は、RAIDレベル(RAIDレベル)と呼ばれます。
- 一般的なRAIDレベル:
RAID0、RAID1、RAID5、RAID6、RAID1 +0など。
RAID0(ストライプストレージ)
- 利点:すべてのRAIDレベルの中で最高のストレージパフォーマンスを備えています。原則は、アクセスのために連続データを複数のディスクに分散することです。これにより、システム内のデータ要求を複数のディスクで並行して実行でき、各ディスクがデータ要求の独自の部分を実行します。したがって、伝送速度は非常に高速です
- 短所:バックアップ機能がない、信頼性が低い、ハードディスクのデータが失われると、すべてのデータに影響を与えるため、アプリケーションとデータのセキュリティに対する要件が高い場所は必要ありません。
- ハードディスクの数:少なくとも2。
RAID1(ミラーストレージ)
- 利点:ユーザーデータの可用性とデータセキュリティを最大限に確保できます。その主な機能は、ユーザーがハードディスクに書き込んだデータの100%を別のハードディスクに自動的にコピーすることです。したがって、RAID1は、RAIDレベルの中で最高のデータセキュリティ保証と高い読み取りパフォーマンスを備えています。
- 短所:100%のデータバックアップにより、バックアップデータは総ストレージスペースの半分を占めます。ディスクスペースの使用率が低いため、ストレージコストはRAIDレベルの中で最も高くなります。
- ハードディスクの数:少なくとも2。
RAID5:
- 利点:ストレージパフォーマンス、データセキュリティ、およびストレージコストを考慮したストレージソリューション。RAID 5は、RAID1のバックアップ方法を比較します。RAID5は、データ自体ではなく、データと対応するパリティデータをRAID5を構成する各ディスクに保存します。したがって、RAID5のディスクが損傷した場合、残りのデータはデータと対応するチェックデータをダウンロードして、破損したデータを高い信頼性で復元します。
- 短所:検証メカニズムのため、書き込み能力が比較的低い
RAID6
- 利点:RAID5と同様ですが、パリティデータにはRAID5よりも1つ多くの独立したパリティ情報ブロックがあり、2つのパリティデータには異なるアルゴリズムがあり、RAID5よりも安全です。
- 短所:書き込みパフォーマンスが低い
RAID1 + 0(最初にミラーリング、次にストライピング):
- 利点:RAID1 + 0は、ストレージパフォーマンスとデータセキュリティの両方を考慮したソリューションです。RAID1と同じデータセキュリティ保証を提供しますが、RAID0と同様のストレージパフォーマンスも提供します。
- 短所:RAID1 + 0は100%のデータバックアップを通じてデータセキュリティも提供するため、RAID 0 + 1のディスクスペース使用率はRAID1と同じであり、ストレージコストが高くなります。
RAIDレベル | ハードドライブの数 | ディスク使用率 | 小切手はありますか? | 保護能力 | 読み取りと書き込みのパフォーマンス |
---|---|---|---|---|---|
RAID0 | N | 100% | 番号 | 番号 | 1台のハードディスクのN回(最良) |
RAID1 | N(偶数) | 50% | 番号 | デバイス障害を許可する | 読み取りと単一のハードディスクの間に違いはありませんが、両側で書き込みます |
RAID5 | N> = 3 | (N-1)/ N | 持ってる | デバイス障害を許可する | 読み取りとRAID0は類似しており、書き込み<単一のハードディスク |
RAID6 | N> = 4 | (N-2)/ N | 持ってる | 2つのデバイス障害を許可する | 読み取りと書き込みはRAID5に似ており、書き込み<RAID5 |
RAID10 | N> = 4(偶数) | 50% | 番号 | 2つの基底関数系の1つが悪くなるのを許します | 読み取り= RAID0、書き込み= RAID1 |
アレイカード
- アレイカードはRAID機能を実現するためのボードです
- 通常、I / Oプロセッサ、ハードディスクコントローラ、ハードディスクコネクタ、キャッシュなどの一連のコンポーネントで構成されます
- 異なるRAIDカードは異なるRAID機能をサポートします。
例:RAID0、RAID1、RAID5、RAID10などをサポートします。 - RAIDカードインターフェースタイプ:
IDEインターフェース、SCSIインターフェース、SATAインターフェース、SASインターフェース
アレイカードのキャッシュ
- キャッシュは、RAIDカードが外部バスとデータを交換する場所です。RAIDカードは最初にデータをキャッシュに送信し、次にキャッシュが外部データバスとデータを交換します。
- キャッシュのサイズと速度は、RAIDカードの実際の伝送速度に直接関係する重要な要素です。
- さまざまなRAIDカードには、工場出荷時にさまざまなメモリ容量が装備されており、通常は数メガバイトから数百メガバイトの範囲です。
ソフトRAIDディスクアレイを作成する手順
最初に4台のハードドライブをインストールします
1.コマンドパッケージを確認します
rpm -q mdadm
yum install -y mdadm
2.fdiskツールを使用してディスクを管理します
新しいディスクデバイスをプライマリパーティションに分割し、パーティションタイプのIDマーク番号を「fd」に変更します
fdisk /dev/sdb (sdc,sdd,sde等)
#他の3台のハードドライブは上記の手順と同じです
最後に、mdadm -E / dev / sd [be] 1コマンドを使用して、ディスクがRAIDであるかどうかを確認します。
3.RAIDデバイスを作成します
(1)RAID5を作成する
mdadm -C -v /dev/md0 [-a yes] -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1
-C:表示新建;
-v:显示创建过程中的详细信息。
/dev/md0:创建 RAID5 的名称。
-a yes:--auto,表示如果有什么设备文件没有存在的话就自动创建,可省略。
-l:指定 RAID 的级别,l5 表示创建 RAID5。
-n:指定使用几块硬盘创建 RAID,n3 表示使用 3 块硬盘创建 RAID。
/dev/sd[bcd]1:指定使用这四块磁盘分区去创建 RAID。
-x:指定使用几块硬盘做RAID的热备用盘,x1表示保留1块空闲的硬盘作备用
/dev/sde1:指定用作于备用的磁盘
cat / proc / mdstatコマンドを使用して、進行状況を表示します
正常に作成されました
(2)RAID10を作成します(最初にミラーイメージ、次にストライプ)
mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
RAIDディスクコマンドの表示
cat /proc/mdstat #查看RAID磁盘详细信息和创建RAID的进度
mdadm -D /dev/md0 #查看RAID磁盘详细信息
watch -n 10 'cat /proc/mdstat' #用watch命令来每隔一段时间刷新 /proc/mdstat 的输出
mdadm -E /dev/sd[b-e]1 #检查磁盘是否已做RAID
4.ファイルシステムを作成してマウントします
mkfs -t xfs /dev/md0
mkdir /myraid
mount /dev/md0 /myraid/
df -Th
cp /etc/fstab /etc/fstab.bak
vim /etc/fstab
/dev/md0 /myraid xfs defaults 0 0
新しく作成したRAID5をフォーマットします
マウントポイントを作成し、作成したmd0を作成したマウントポイントにマウントします
5.障害回復を実現します
mdadm /dev/md0 -f /dev/sdb1 #模拟/dev/sdb1 故障
mdadm -D /dev/md0 #查看发现sde1已顶替sdb1
6. /etc/mdadm.conf構成ファイルを作成して、開始や停止などのソフトウェアRAID構成の管理を容易にします。
echo 'DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1' > /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
mdadmコマンドの他の一般的なオプション:
-r:移除设备
-a:添加设备
-S:停止RAID
-A:启动RAID
mdadm /dev/md0 -f /dev/sdb1
mdadm /dev/md0 -r /dev/sdb1
mdadm /dev/md0 -a /dev/sde1
echo 'DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1' > /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
umount /dev/md0
mdadm -s /dev / md0
mdadm -As / dev/ md0
#一s:指查找letc/ mdadm. conf 文件中的配置信息
最初に元のマウントポイントを閉じる必要があります。そうしないと停止しません
再起動後、RAID5を再構築します
再構築は成功し、再び正常に使用できるようになります