RAIDディスクアレイの紹介
は、独立ディスクの冗長アレイと呼ばれる、独立ディスクの冗長アレイの略語です。
複数の独立した物理ハードディスクをさまざまな方法で組み合わせて、ハードディスクグループ(論理ハードディスク)を形成します。単一のハードディスク。
ディスクアレイを形成するためのストレージパフォーマンスとデータバックアップテクノロジーのさまざまな方法は、RAIDレベルと呼ばれます。
一般的に使用されるRAIDレベル
RAID0、RAID1、RAID5、RAID6、RAID1 +0など。
RAID0の概要ディスクアレイ
RAID0(ストライプストレージ)
RAID 0は、データをビット単位またはバイト単位で連続的に分割し、複数のディスクに対して並列に読み取り/書き込みを行うため、データ転送速度は高くなりますが、データの冗長性はありません。
RAID 0以上のものは単にパフォーマンスを向上させるためのものですが、ディスク障害の1つがすべてのデータに影響を与えるわけでは
なく、高いRAID0で信頼性の高いデータ保護を提供することはできません。
RAID1の概要ディスクアレイ
RAID1(ミラーストレージ)
は、ディスクデータミラーリングによってデータの冗長性を実現し、独立したディスクのペアで相互にバックアップデータを生成します。
元のデータがビジーの場合、データはミラーコピーから直接読み取ることができます。したがって、RAID 1は読み取りパフォーマンスを向上させることができます
。RAID1はディスクアレイの中で最も高いユニットコストを持ちますが、高いデータセキュリティと可用性を提供します。ディスクに障害が発生すると、システムは、障害が発生したデータを再編成することなく、読み取りと書き込みのためにミラーディスクに自動的に切り替えることができます。
RAID 5ディスクアレイの概要
RAID 5
N(N> = 3)ディスクはデータのワンピースは、N-1のストライプを生成する。アレイを形成し、パリティデータの一片もある。データのN個のAの合計が周期的にバランスされていますNディスクに。ストレージ
Nディスクが読み出され、同時に書き込み、読み出し性能が非常に高いが、原因チェック機構の問題に、書き込み性能が比較的低い
(N-1)/
信頼性Nディスクの使用率が高く、すべてのデータに影響を与えることなく1つのディスクを損傷させることができます
RAID 6ディスクの概要
RAID 6
N(N> = 4)ディスクがアレイを形成し、(N = 2)/ Nディスク利用がされている
RAID 5と比較して、RAID 6は、第2の独立したパリティ情報ブロック追加
独立パリティ・システムは、異なる使用する2つのアルゴリズムでは、2つのディスクに同時に障害が発生しても
、データの使用には影響しません。RAID5と比較すると、「書き込み損失」が大きいため、書き込みパフォーマンスが低下します。
RAID 1 +0ディスクアレイの
概要RAID1 + 0(最初にミラーリング、ストライピング)
N(偶数、N> = 4)2つのディスクがペアでミラーリングされた後、それらはRAID 0
N / 2ディスク使用率
N / 2に結合されます。ディスクは同時に書き込まれ、N個のディスク
は同時に高い読み取りパフォーマンスと高い信頼性を備えています
。RAID0+ 1(最初にストライプ、ミラーリング)
読み取りと書き込みのパフォーマンスはRAID 10と同じであり、
セキュリティはRAID10。
RAIDレベルハードディスクの数ディスク使用率保護機能の確認書き込みパフォーマンス
RAID0NNなしなし単一のハードディスクのサイズのN倍
RAID1N(偶数)N / 2なし1つのデバイスに障害が発生することを許可する2組のストレージデバイスを書き込む必要がありますプライマリおよびバックアップとして相互に
RAID5N> = 3(N-1)/ N
はい、1つのデバイス障害には書き込み計算チェックが必要ですRAID6 N> = 4(N-2)/ Nはい、2つのデバイス障害には二重書き込み計算が必要ですcheck
RAID10 N> = 4(偶数)N / 2なし2つの基本グループのそれぞれに1つのN / 2ディスクを同時に書き込むことができます。
アレイカード導入
アレイカードボードは、RAID機能を実現するために使用される。
これは、通常、L /プロセッサO、ハードディスクコントローラ、ハードディスクコネクタ及びキャッシュなどのコンポーネントの一連から構成されている。
異なるRAIDカードは、異なるRAID機能をサポートし、
このようなRAID0をサポートするものとして。、RAID1、RAID5、RAID10など。
RAIDカードインターフェースタイプ
IDEインターフェース、SCSIインターフェース、SATAインターフェース、SASインターフェース
アレイカードのキャッシュは、
RAIDカードが外部バスとデータを交換する場所です。RAIDカードは最初にデータをキャッシュに転送し、次にキャッシュと外部データバスがデータを交換します
。キャッシュのサイズと速度RAIDカードの現実に直接関係しています。伝送速度の重要な要素
。RAIDカードが工場出荷時に異なるメモリ容量(通常は数メガバイトから数百メガバイト)が装備されています。
ソフトRAIDディスクアレイを作成するステップ
1.mdadmソフトウェアパッケージがインストールされているかどうかを確認します
rpm
- q mdadm yum install -y mdadm
查看
rpm -q mdadm
或
rpm -qa | grep “mdadm”
系统默认装了,没有就yum装
yum -y install mdadm-4.0-5.el7.x86_64
2. fdiskツールを使用して、新しいディスクデバイス/ dev / sdb、/ dev / sdc、/ dev / sdd、/ dev / sdeをプライマリパーティションsdb1、sdc1、sdd1、sde1に分割し、のIDマーク番号を変更します。 「fd」へのパーティションタイプ
fdisk / dev / sdb
fdisk / dev / sdc
fdisk /dev/sdb (sdc\sdd\sde)
3.RAIDデバイスを作成します
mdadm -E /dev/md0 检查磁盘是否已做RAID
mdadm -C -v /dev/md0 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1 创建一个名为md0的RAID
-l5:RAID是RAID5
-n3:用三个硬盘
-x1:备份数1
mdadm -D /dev/md0 查看磁盘详细信息
cat /proc/mdstat 能查看创建raid进度及磁盘详细信息
-C:表示新建
-v:显示创建过程中的详细信息
/dev/md0:创建 RAID5 的名称
-a yes:--auto,表示如果有什么设备文件没有存在的话就自动创建,可省略
-l:指定 RAID 的级别,l5 表示创建 RAID5
-n:指定使用几块硬盘创建 RAID,n3 表示使用 3 块硬盘创建 RAID
/dev/sd[bcd]1:指定使用者3块磁盘分区去创建 RAID
-x:指定使用几块硬盘做RAID的热备用盘,x1表示保留一块空闲的硬盘作备用
/dev/sde1:指定用作于备用的磁盘
#Create RAID10(最初のミラーリング、次いでストライピング)のmdadm -Cvの/ dev / MD0 -11 -n2の/ dev / SD [BC] 1
のmdadm -Cvの/ dev / MD1 -11 -n2の/ dev / SD [DE] 1つの
mdadmの- Cv / dev / md10 -10 -n2 / dev / md0 / dev / md1
mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
#RAID ディスクの詳細を表示cat / proc / mdstat#RAID
または
mdadm -D / dev / md0の作成の進行状況を表示することもできます
#watchコマンドを使用して、/ proc / mdstatの出力を定期的に更新します
watch-n 10'cat / proc / mdstat '
# ディスクがRAIDであるかどうかを確認しますmdadm -E / dev / sd [be] 1
4.ファイルシステムを作成してマウントします
mkfs-t xfs / dev / md10
mkdir / myraid
mount / dev / md0 / myraid /
df -Th
cp / etc / fstab /etc/fstab.bak
vim / etc / fstab
/ dev / md0 / myraidxfsのデフォルトは00
mkfs -t xfs /dev/md10
mkdir /myraid
mount /dev/md10 /myraid/
df -Th
5.障害回復の実現
mdadm / dev / md0 -f / dev / sdb1
#simulate / dev / sdb1 fault mdadm -D / dev / md0#sde1がsdb1に置き換わっていることを確認します
6. /etc/mdadm.conf構成ファイルを作成して、
echo'DEVICE / dev / sdc1 / dev / sdb1 / dev / sdd1 'の開始と停止など、ソフトウェアRAID構成の管理を容易にします。> /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
mdadmコマンドの他の一般的なオプション
-r:デバイスの削除
-a:デバイスの追加
-S:RAIDの停止
-A:RAIDの開始
mdadm / dev / md0 -f / dev / sdb1
mdadm / dev / md0 -r / dev / sdb1
mdadm / dev / md0 -a / dev / sdb1
echo'DEVICE / dev / sdc1 / dev / sdb1 / dev / sdd1 '> /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
mdadm -S / dev / md0
mdadm -As / dev / md0
#-s:/etc/mdadm.confファイルで構成情報を検索することを参照します