Linuxテクニカルドキュメント:RAID5およびRAID10ディスクアレイの作成

1.準備段階

ドキュメントの作成に便利なように、4台のハードディスクを使用してRAID5とRAID10を作成します。
ここでは、仮想マシンを使用して技術的な操作を行います。

1.4台の40Gハードドライブを追加します

  • システムのシャットダウン時にハードディスクを追加するには、下図の[追加]ボタンをクリックし、オプションに従って段階的に追加します。(企業で正常な場合、デバイスはホットスワップをサポートしており、追加するためにシャットダウンする必要はありません)
  • システムにログインした後、fdisk -lを使用して、追加されたハードディスクの情報表示できます
    ここに画像の説明を挿入

2.mdadmパッケージがインストールされているかどうかを確認します

rpm -q mdadm

ここにインストールしたので、ファイルが表示されます
ここに画像の説明を挿入

yum install -y mdadm

ここの出力ページが長すぎて全部表示できません。インストールしたので最初と最後を切り取ったので、ここでアップグレード操作を行います。
ここに画像の説明を挿入

ここに画像の説明を挿入

3.fdiskツールを使用してディスクを管理します

新しいディスクデバイス/ dev / sdb、/ dev / sdc、/ dev / sdd、/ dev / sdeをプライマリパーティションsdb1、sdc1、sdd1、sde1に分割し、パーティションタイプのIDマーク番号を「fd」に変更します。

fdisk /dev/sdb
fdisk /dev/sdc

ここでは、すべてのディスクを1つのプライマリパーティションにのみ分割します。1つの領域または詳細のみを分割したくない場合は、前のブログ「ディスク管理」を参照してください。他の3つのディスクは同じです。最後に保存する必要があることに注意してください。
ここに画像の説明を挿入
すべてのディスクを分割した後、fdisk -lを使用して表示します。下の図に示すように、ディスクのID番号はfdになっています。ここでは2つのディスクのみをカットし、次の2つは同じです。
ここに画像の説明を挿入
ディスクパーティションが完了すると、ディスクは何の操作も実行しません。これで、mdadm -E / dev / sd [be] 1コマンドを使用して、ディスクがRAIDであるかどうかを確認できます。これは正常である必要があります。
ここに画像の説明を挿入

2つ目は、RAID5デバイスを作成する

1.RAID5を作成します

1)RAID5を作成します

RAID5を作成し、注1に名前を付けます

mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1

ここに画像の説明を挿入

cat / proc / mdstatコマンドを使用して進行状況を表示します。図に示すように、進行状況バーは作成中であることを示します。
ここに画像の説明を挿入
mdadm -D / dev / md05を使用して表示します。上記と比較すると、この種の表示されたより多くの情報を状況に応じて使用できます。
ここに画像の説明を挿入
次の図に示すように、作成は成功しています。
ここに画像の説明を挿入
この時点で、ディスクがRAIDで構成されているかどうかを確認できます。他のディスクのパーティションはsdb1と同様です。
ここに画像の説明を挿入

2)マウントして使用する

それが行われた後、それは使用のために作成され、マウントされます。
新しく作成したRAID5(md5)をフォーマットし
ここに画像の説明を挿入
、RAIDをシステムディレクトリにマウントします。最後の1つは、マウントが成功したことを示しています。RAID5のディスク使用効率は(N-)であるため、ここでの容量は3ディスクではなく2ディスクのみです。 1)/ nなので、ディスク容量の2/3しかありません(ここで仮想マシンに40Gを追加すると、システムは43Gを表示しますが、これはディスク変換表示の問題である可能性があります)。ここで使用した一時マウント。永続マウントを使用する場合は、マウント構成、サーバーハードウェア、およびRAID構成(簡単な理解)が含まれている前回のブログを確認してください

ここに画像の説明を挿入

3)失敗をシミュレートする

mdadm / dev / md5 -f / dev / sdb1を使用してsdb1に障害点をシミュレートさせ、mdadm -D / dev / md0を使用して詳細情報を表示します。以下のハードディスクリストにsdb1のエラーが表示され、sde1が置き換えられます。 sdb1の場所で、ステータスがBuildingの場合は、後でもう一度確認してください。

ここに画像の説明を挿入
sde1がsdb1に置き換わり、状態が動的同期になっていることがわかります。ハードディスクにファイルがある場合は、ファイルがまだそこにあり、データが失われていないこともわかるので、ここでは説明しません。
ここに画像の説明を挿入
RAID5を削除してハードディスクを削除する場合は、すべて問題ありません。sdb1が以前に障害をシミュレートすると、回復のために削除のエラーが報告されます。mdadm / dev / md0 -f / dev / sdb1の後に復元するには、mdadm / dev / md0 -r / dev / sdb1でハードディスクを削除してから、mdadm / dev / md0 -a / dev / sdb1でハードディスクを追加する必要があります。 、次に削除します。
ここに画像の説明を挿入

2.RAID10を作成します

1)RAID10を作成します

10、1が前面、0が背面なので、最初にRAID1を実行し、次にRAID0を実行します。

mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1

md0とmd1という名前の2つのRAID1を作成し、ディスクbとc、およびディスクdとeをそれぞれ割り当てます。
ここに画像の説明を挿入
作成したRAID1をRAID0に結合します。
ここに画像の説明を挿入

2)マウントして使用する

raid10をフォーマットしてディレクトリを
ここに画像の説明を挿入
作成し、md10をマウントします。バックアップ用にRAID10には2つのディスクがあるため、実際に使用されるスペースは最大容量の1/2です。
ここに画像の説明を挿入

3)故障のデモンストレーション

ハードディスクはmd0とmd1に配置されているため、ハードディスクの動作は対応するレベルである必要があります。エラーデモ2

ここに画像の説明を挿入
ディスクに障害が発生しましたが、通常どおり使用できます。
ここに画像の説明を挿入
ここに画像の説明を挿入
ディスクを復元するには、最初にsdb1をmd0から移動してから、追加します。
ここに画像の説明を挿入
再構築中再
ここに画像の説明を挿入
構築は成功し、通常どおり再び使用できます。
ここに画像の説明を挿入
これでこの作成は終わりです。ドキュメントに質問や追加がある場合は、コメントセクションにメッセージを残してください。


  1. 名前注:
    ここでは自分で名前を選択したいのですが、入力するとエラーが発生します。/dev/md/RAID5を試してみましょう。ご覧のとおり、名前はmdで始まる必要があります。
    ここに画像の説明を挿入 ↩︎

  2. m10↩︎にそのようなデバイスがないことを
    ここに画像の説明を挿入 促す

おすすめ

転載: blog.csdn.net/weixin_51326240/article/details/110264983