duコマンド:その形式は「du [option] [file]」です。Simpleこのコマンドは、1つ以上のファイルが占めるハードディスク容量を表示するために使用されます
スタートアップマウントディスクの損失を防ぐために、ローカルのyumソースを構成します。マウントポイントとマウントディレクトリを構成ファイル/ etc / fstabに追加する必要があります。
スワップパーティションを追加します
SWAP(スワップ)パーティションは、実際の物理メモリが不足する問題を解決するために、ハードディスク内の一定量のスペースを事前に分割し、一時的に使用頻度の低いデータをハードディスクのメモリに一時的に保存する方法です。ただし、スワップパーティションはハードディスクデバイスを介してデータの読み取りと書き込みを行うため、速度は物理メモリよりも確実に遅くなります。したがって、スワップパーティションのリソースは、実際の物理メモリが使い果たされた場合にのみ呼び出されます。
新しく追加したディスクが分割されているかどうかを確認します
マウントスワップ
[root@my-server ~]# mks
mksquashfs mkswap
[root@my-server ~]# mkswap /dev/sdb
sdb sdb1
[root@my-server ~]# mkswap /dev/sdb1
Setting up swapspace version 1, size = 4 GiB (4294963200 bytes)
no label, UUID=b2e6e5a8-c4f5-467c-919a-c29a0483d3da
[root@my-server ~]# free -g
total used free shared buff/cache available
Mem: 1 1 0 0 0 0
Swap: 2 0 2
[root@my-server ~]# swapon /dev/sdb1
[root@my-server ~]# free -g
total used free shared buff/cache available
Mem: 1 1 0 0 0 0
Swap: 6 0 6
[root@my-server ~]#
ブートロスを回避するため
ディスク容量の割り当て
クォータコマンドには、ソフト制限とハード制限の機能もあります。
ソフト制限:ソフト制限に達すると、ユーザーにプロンプトが表示されますが、ユーザーは制限された量内で引き続き使用できます。
ハード制限:ハード制限に達すると、ユーザーにプロンプトが表示され、ユーザーの操作が強制的に終了します
クォータディスク容量クォータサービスパッケージはRHEL8システムにインストールされていますが、ストレージデバイスはデフォルトでクォータテクノロジをサポートしていません。このとき、構成ファイルを手動で編集し、再起動してブートディレクトリを許可する必要があります(/ブート)システムでクォータディスククォータテクノロジーをサポートできるようにする
保存後に設定が成功したかどうかを確認します。
テスト用のテストユーザーを追加する
XFSファイルシステムがクォータディスク容量クォータサービスを管理するために特別に設計されたコマンド。-cパラメーターは、パラメーターの形式で実行されるコマンドを設定するために使用されます。-xパラメーターはエキスパートモードであり、操作を可能にします。クォータサービスを実行するための保守担当者より複雑な構成。次に、xfs_quotaコマンドを使用して、/ bootディレクトリのユーザーredhatのクォータディスク容量クォータを設定します。具体的なクォータ制御には、ハードディスク使用量のソフト制限とハード制限がそれぞれ3MBと6MB、作成されるファイル数のソフト制限とハード制限がそれぞれ3MBと6MBが含まれます。
上記で使用したパラメーターは、isoft / ihardとbsoft / bhardの2つのグループに分けられます。それらについて、詳しく説明します。セクション6.3で説明したように、Linuxシステムの各ファイルは独立したiノード情報ブロックによって保存されます。各ファイルはiノード情報ブロックに対応します。すべてのisoftおよびihardは、システムで使用されるiノードの最大数を制限します。番号はファイルを制限します。フォーマット。bsoftとbhardは、ファイルが占めるブロックサイズ、つまり最大のファイルが占める統計の合計を表します。
ソフトはソフト制限です。これを超えると、ユーザーの動作を制限せずにログにのみ書き込まれます。ハード制限はハード制限であり、一度超えるとすぐに禁止され、ハードディスク容量を作成したり、新たに占有したりすることはできません。
上記のさまざまなハードウェアとソフトウェアの制限を構成した後、この通常のユーザーに切り替えてから、それぞれ5MBと8MBのボリュームのファイルを作成してみてください。8MBのファイルを作成する場合、システムに制限があることがわかります。
edquotaコマンドは、新しい交換パーティションデバイスをアクティブ化するために使用されます。完全な英語名は「editquota」で、構文形式は「edquota [parameter] username」です。
ユーザーのクォータディスク容量クォータ制限を設定した後、edquotaコマンドを使用して、必要に応じてクォータの値を変更できます。その中で、表6-6に示すように、-uパラメータはどのユーザーを設定するかを示し、-gパラメータはどのユーザーグループを設定するかを示します。
表6-6edquotaコマンドで使用できるパラメータと関数
パラメータ | 効果 |
-u | そのユーザーを設定する |
-g | そのユーザーグループを設定する |
-p | 元のルールを新しいユーザー/グループにコピーします |
-t | 制限付き猶予期間 |
edquotaコマンドは、ViまたはVimエディターを呼び出して、ルート管理者が制限する特定の詳細を変更できるようにします。保存して、wqで終了することを忘れないでください。ユーザーredhatのハードディスク使用量のハード制限を5MBから8MBに増やしましょう。
テスト検証は次のとおりです
ソフトとハードの方法のリンク
ソフトリンク(シンボリックリンク):シンボリックリンクとも呼ばれ、アドレスを記録するラベルのように、リンクされたファイルの名前とパスのみが含まれます。元のファイルを削除または移動すると、新しいリンクファイルも無効になり、アクセスできなくなります。ファイルやディレクトリへのソフトリンクを作成できます。クロスファイルシステムは問題ありません。この観点から、互換性があります。 「メソッド」は同じ性質を持っています。ユーザーアクセスの効果を図6-15に示します。
元のファイルを削除してください。シンボリックリンクファイルが異常です。
シンボリックリンクの元のファイルが削除された後、会議が再度追加された後、シンボリックリンクの情報には新しく追加されたコンテンツが表示されます
ハードリンク:「元のファイルブロックへのポインタ」として理解できます。システムは、元のファイルブロックとまったく同じiノード情報ブロックを作成します。したがって、ハードリンクされたファイルは元のファイルとまったく同じですが、名前が異なります。ハードリンクが追加されるたびに、ファイルのiノードの数は1ずつ増加し、ファイルのiノードの数が0の場合にのみ、完全に削除されたと見なされます。つまり、ハードリンクは実際には元のファイルブロックへのポインタであるため、元のファイルが削除されても、ハードリンクファイルを介してアクセスできます。技術的な制限により、パーティション間でディレクトリファイルをハードリンクすることはできないことに注意してください。
-s | 「シンボリックリンク」を作成します(-sパラメータがない場合、デフォルトでハードリンクが作成されます) |
-f | ファイルまたはディレクトリへのリンクの必須作成 |
-私 | カバーする前に尋ねる |
-v | リンクを作成するプロセスを表示する |
RAIDディスクの冗長アレイ
RAID 0 RAID 1 RAID 5 RAID10の情報は次のとおりです。
RAIDレベル | 最小限のハードディスク | 使用可能容量 | 読み取りと書き込みのパフォーマンス | 安全性 | 特徴 |
0 | 2 | n | n | 低 | 最大容量と速度を追求し、ディスクが損傷した場合、すべてのデータが異常になります。 |
1 | 2 | n / 2 | n | 高い | 最大限のセキュリティを追求するために、アレイグループで使用可能なハードディスクがある限り、データは影響を受けません。 |
5 | 3 | n-1 | n-1 | に | コスト管理を前提に、ハードディスクの最大容量、速度、安全性を追求し、データに影響を与えることなく1台のハードディスクを異常状態にすることができます。 |
10 | 4 | n / 2 | n / 2 | 高い | RAID1とRAID0の利点を組み合わせ、ハードディスクの速度と安全性を追求し、ハードディスクの半分を異常(同じグループに属さない)にし、データに影響を与えません。 |
mdadmコマンドの一般的なパラメータと機能
パラメータ | 効果 |
-a | 試験装置名 |
-n | デバイスの数を指定します |
-l | RAIDレベルを指定する |
-C | 作成する |
-v | プロセスを表示 |
-f | 機器の損傷をシミュレートする |
-r | デバイスを削除 |
-Q | 要約情報を表示する |
-D | 詳細情報を確認してください |
-S | RAIDディスクアレイを停止します |
ディスクアレイを展開する
まず、RAID 10ディスクアレイを作成するには、仮想マシンに4台のハードディスクデバイスを追加する必要があります。SCSIまたはSATAインターフェイスタイプを使用することを忘れないでください。迅速に実装するには、20GBを設定して効果を確認できます。
-CパラメーターはRAIDアレイカードの作成を表します。-vパラメーターは作成プロセスを示し、デバイス名/ dev / md0が追加されるため、/ dev / md0は作成されたRAIDディスクアレイの名前です。 -n4パラメーターは4台のハードディスクを使用してこのRAIDディスクアレイを展開することを表します。-l10パラメーターはRAID10スキームを表します。最後に4台のハードディスクデバイスの名前を追加して実行します。
RAID生成の詳細な進捗状況を表示する
準備したRAIDディスクアレイをext4フォーマットにフォーマットします
マウントポイントを作成してから、ハードディスクデバイスをマウントします。マウントが成功すると、使用可能なスペースが40GBであることがわかります(RAID10の使用率は50%しかないため)。
そして、/ dev / md0ディスクアレイの詳細情報を表示します
マウント情報を構成ファイルに書き込んで、永続的にします。
損傷したディスクアレイと修理
RAID10ディスクアレイグループを実稼働環境に展開する目的は、ストレージデバイスのIO読み取りおよび書き込み速度とデータのセキュリティを向上させることですが、今回はローカルコンピューターでシミュレートされたハードディスクデバイスであるため、向上させることができます。読み取りと書き込みの速度直感的ではありませんまず、物理ハードディスクデバイスが損傷していて正常に使用できなくなったことを確認した後、mdadmコマンドを使用してデバイスを削除し、RAIDのステータスを確認する必要がありますディスクアレイグループが変更されました。
ディスクDの損傷をシミュレートします。
仮想マシンでハードディスクをシミュレートしているため、最初にシステムを再起動してから、新しいハードディスクをRAIDディスクアレイに追加します。
ディスクアレイ+バックアップディスク
RAID 10ディスクアレイ内のハードディスクデバイスの最大50%に障害が発生する可能性がありますが、極端な状況があります。つまり、同じRAID 1ディスクアレイ内のすべてのハードディスクデバイスが損傷した場合、データも破損します。失われます。RAID 5ディスクアレイを展開する場合、少なくとも3台のハードディスクが必要であり、バックアップハードディスクも必要です。したがって、仮想マシンで合計4台のハードディスクデバイスをシミュレートする必要があります。シミュレーション情報は次のとおりです。
-C create -v display process -n number of devices -l RAID level -x backup disk
同期情報が完了しました。確認するバックアップディスクがあります
[root@my-server ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Jan 24 17:04:26 2021
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Jan 24 17:04:53 2021
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : my-server:0 (local to host my-server)
UUID : 3d867578:36690051:d95c1b74:0b36b19f
Events : 18
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
4 8 64 2 active sync /dev/sde
3 8 80 - spare /dev/sdf
デプロイされたRAID5ディスクアレイをext4ファイル形式にフォーマットしてから、ディレクトリにマウントします
ハードディスクデバイス/ dev / sdeをディスクアレイから再度移動し、/ dev / md0ディスクアレイのステータスをすばやく確認すると、バックアップディスクが自動的に交換され、データの同期が開始されていることがわかります。RAIDのこの種のバックアップディスクテクノロジーは非常に実用的であり、RAIDディスクアレイのデータセキュリティを確保することに基づいてデータの信頼性をさらに向上させることができます。したがって、会社に資金が不足していない場合は、別のバックアップディスクを購入することをお勧めします。万一に備えて。
[root@my-server ~]# mdadm /dev/md0 -f /dev/sde
mdadm: set /dev/sde faulty in /dev/md0
[root@my-server ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Jan 24 17:04:26 2021
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Jan 24 17:15:20 2021
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 29% complete
Name : my-server:0 (local to host my-server)
UUID : 3d867578:36690051:d95c1b74:0b36b19f
Events : 24
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
3 8 80 2 spare rebuilding /dev/sdf
4 8 64 - faulty /dev/sde
[root@my-server ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Jan 24 17:04:26 2021
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Jan 24 17:15:39 2021
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : my-server:0 (local to host my-server)
UUID : 3d867578:36690051:d95c1b74:0b36b19f
Events : 37
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
3 8 80 2 active sync /dev/sdf
4 8 64 - faulty /dev/sde
[root@my-server ~]#
仮想マシンを再起動して、再度マウントします