ストレージのアクティブ/アクティブ アーキテクチャを設計するにはどうすればよいですか? Huawei、EMC、IBM、HDS、NETAPP の 5 つの優れたソリューション!

アクティブ/アクティブ データセンター ソリューションとは、両方のデータセンターが稼働し、同時に本番業務を実行できることを意味し、データセンター全体のサービス能力とシステム リソースの使用率を向上させ、RPO (目標復旧時点) を実現します。 RTO (目標復旧時間) 厳格な要件により、エンタープライズ ビジネス システムの継続性がより高いレベルに引き上げられます。現在、エンドツーエンドのアクティブ/アクティブ データセンター ソリューションのコア技術はストレージ アクティブ/アクティブ技術であり、これも企業の注目を集めているアクティブ/アクティブ技術の 1 つですが、これに関する既存の内容は次のとおりです。ストレージ アクティブ/アクティブは一般的にストレージ アクティブ/アクティブ ソリューションの全体像について、企業が提供する製品をベースにソリューションの内容を整理するだけでは、企業のストレージ アクティブ/アクティブ プロジェクトの実際の導入を有利にサポートすることは困難です。そのため、プロジェクト実施後はメーカーの束縛を受けやすくなります。そこで、今回のアクティブ/アクティブ ストレージ ソリューションの分析では、ソリューションの特徴、第 3 サイトの調停、3 センターの 2 か所の拡張など、複数の観点からソリューションを公平かつ客観的に分析します。 、読み取りおよび書き込みパフォーマンス、フェイルオーバー、およびアクティブ/アクティブ ストレージの機能。ファーウェイを含む 5 つの異なるストレージ メーカーのストレージ アクティブ/アクティブ ソリューションを含め、業界の主流のストレージ アクティブ/アクティブ ソリューションが全体として詳細に分析および比較されます。 、EMC、IBM、HDS、NETAPP は、企業がストレージのアクティブ/アクティブ構築の実装上の問題を真に解決できるよう支援します。この記事では、業界で主流の 5 つのストレージ アクティブ/アクティブ ソリューションのソリューションの特徴を分析します。

1.ファーウェイハイパーメトロ

1. アクティブ/アクティブ ソリューションの概要

ファーウェイのストレージ層のアクティブ/アクティブ ソリューションは、OceanStor コンバージド ストレージ システムの HyperMetro 機能に基づいて実装されています。HyperMetro は、AA アクティブ/アクティブ アーキテクチャを採用し、2 セットのストレージ アレイをクロスサイト クラスターに形成し、リアルタイム データ ミラーリングを実現します。両端のアレイのアクティブ/アクティブ LUN データはリアルタイムで同期され、両端でアプリケーション サーバーの I/O 読み取りおよび書き込み要求を同時に処理できるため、アプリケーション サーバーに差別化されていない AA 並列アクセス機能が提供されます。 。いずれかのディスク アレイに障害が発生した場合、ビジネスは自動的かつシームレスにピア ストレージ アクセスに切り替えられ、ビジネス アクセスは中断されません。

2. プログラムの特徴

(1)ゲートウェイ不要の設計: Hyper Metro アクティブ/アクティブ アーキテクチャは、仮想化ゲートウェイ デバイスの追加展開を必要とせず、2 セットのストレージ アレイを直接使用してクロスサイト クラスタ システムを形成します。最大 32 個のストレージ コントローラがサポートされます。つまり、16 コントローラのストレージ アレイの 2 セットがアクティブ/アクティブ関係を形成します。

(2) I/O アクセス パス: アプリケーション ホスト側では、Hyper Metro が UltraPath ホスト マルチパス ソフトウェアを通じて 2 つのストレージ アレイ上のアクティブ/アクティブ メンバー LUN を 1 つのアクティブ/アクティブ LUN に集約し、アプリケーション プログラムにマルチパス Vdisk、I/O 読み取りおよび書き込み機能。アプリケーションが仮想ディスクにアクセスすると、Ultrapath はマルチパス モードに従って最適なアクセス パスを選択し、I/O リクエストをストレージ アレイに送信します。

HyperMetro サイトの展開距離に応じて、Hyper Metro は 2 つの I/O アクセス戦略を選択できるようにします。1 つ目は負荷分散モードです。このモードでは、アレイ間の I/O 負荷分散を実現できます。つまり、I/O は断片化された方法で 2 つのアレイに分散されます。スライスのサイズは設定可能で、例えばスライスサイズが128Mの場合、つまり開始アドレスが0~128MのI/OはA配列で発行され、128M~256MはB配列で発行され、等々。負荷分散モードは主に、アクティブ/アクティブ サービスが同じデータ センターに展開されるシナリオで使用されます。このシナリオでは、2 セットのアクティブ/アクティブ ストレージ デバイスにアクセスするホスト ビジネスのパフォーマンスはほぼ同じです。2 セットのストレージ デバイスのリソースを最大限に活用するために、ホスト I/O は次の 2 つのストレージ デバイスに分散されます。 2 セットの配列を断片化して保存します。

もう 1 つは優先アレイ モードです: このモードでは、ユーザーは OceanStor UltraPath 上の優先アクセス アレイを指定します。ホスト ビジネスがアクセスするとき、I/O はユーザーが設定した優先アレイ パスでのみ負荷分散されます。 /O 配列へのアクセス。優先アレイに障害が発生した場合にのみ、最適でないアレイに切り替えて I/O を提供します。最適なアレイ モードは主に、遠く離れたデュアル データ センターにアクティブ/アクティブ サービスが展開されるシナリオで使用されます。このシナリオでは、アクティブ/アクティブ データ センターのクロスサイト アクセスのコストが高くなります。2 つのデータ センター間のリンク距離が 100 km の場合、通常、往復の送信には約 1.3 ミリ秒かかります。最適なアレイ モードは、サイト間の対話の数を減らすことで I/O パフォーマンスを向上させます。データ読み取りシナリオの場合、アクティブ/アクティブ データ センター内のビジネス ホストは、データ センターに対応するアクティブ/アクティブ ストレージ アレイを読み取るだけで済みます。これにより、ホストがデータ センター間でデータを読み取ることがなくなり、全体的なアクセス パフォーマンスが向上します。データ書き込みシナリオの場合、ビジネス ホストはデータ センターに対応するアクティブ/アクティブ ストレージ アレイに直接書き込み、ホストがデータ センター全体にデータを転送することを回避し、HyperMetro AA のアクティブ/アクティブ機能を最大限に活用し、各コントローラーのAA クラスターは書き込み I/O を受信でき、ローカル コントローラーはローカル ホストの書き込み I/O 要求を処理して、データ センター間の転送回数を削減し、ソリューションの全体的なパフォーマンスを向上させます。

(3)ストレージ層ネットワーク: 次の図は、Hyper Metro アクティブ/アクティブ ソリューションの典型的なネットワーク アーキテクチャを示しています。アレイとホスト、デュアルアクティブ ミラーリング、都市内相互接続を含む 3 種類のネットワークを構築可能 データ ネットワークはビジネス ネットワークから分離され、2 セットのアクティブ/アクティブ ストレージ アレイ間の通信は FC または IP リンクをサポートFC リンクが推奨されますが、サイト間の RTT (往復遅延) の要件は 2ms 未満です。さらに、ストレージアレイと調停サーバー間のリンクには共通の IP リンクが採用されています。

(4)統合されたアクティブ/アクティブ: このソリューションのアクティブ/アクティブ デバイスのセットは、ファイル データ サービス (File Service) とブロック データ サービス (Block Service) の両方をサポートし、NFS ファイル システムと SAN ブロックの 2 つの方法で提供できます。ストレージ アクティブ/アクティブ機能。SAN と NAS は一連の調停を共有します。これにより、2 つのサイト間のリンクに障害が発生した場合に、ファイル ストレージとブロック ストレージが同じサイトによって提供され、調停の一貫性が確保されます。SAN と NAS は、ネットワーク、サイト間のハートビート、構成、およびデータの物理リンクを 1 つに統合することで、1 つのネットワークで SAN および NAS 伝送を実現でき、ビジネス ネットワーク、サイト間ネットワーク、アービトレーション ネットワークのすべての IP 展開をサポートし、ネットワーキングがシンプルになります。

(5)ストレージ層でのデータの一貫性: データの一貫性は I/O 二重書き込みによって確保されます。通常のシステム条件では、アプリケーションの IO データはホストに返される前に 2 つのアレイに同時に書き込まれる必要があります。 2 つのアレイのデータはリアルタイムであり、一貫性があります。分散ロック メカニズム (DLM) を使用して、ホストが同じストレージ アドレスのデータにアクセスするときに、ホストの 1 つがデータの一貫性を確保するために書き込みます。ストレージが使用できない場合、データ差分処理メカニズムがあり、ストレージの 1 つが使用できない場合 アレイ使用時は、通常のストレージのみが書き込まれ、データの変更は同時に DCL (データ変更ログ) スペースに記録されます。ストレージが修復されると、HyperMetro はアクティブ/アクティブ ペア関係を自動的に復元し、DCL によって記録された情報を使用してデータを増分に書き込み、ストレージを修復します。この利点は、すべてのデータを完全に同期する必要がなく、プロセス全体がホストに対して「透過的」であり、ホストのビジネスに影響を与えないことです。

(6) FastWrite テクノロジー: 従来の一般的な方式では、2 つのサイト間の書き込み I/O は、送信プロセス中に「書き込みコマンド」と「データの書き込み」という 2 つの相互作用を受ける必要があります。 100KM の場合、2 RTT (往復遅延) が発生します。下図の左側を参照してください。二重書き込みパフォーマンスを向上させるために、FastWrite テクノロジは「書き込みコマンド」と「書き込みデータ」を 1 つの送信に組み合わせます。理論的には、100KM 伝送リンクは 1 RTT だけで全体的な書き込み IO パフォーマンスが向上します (下図の右側を参照)。

(7)クロスサイト不良ブロック修復技術:データの信頼性を向上させるために、Hyper Metro はクロスサイト自動不良ブロック修復技術を備えており、人間の介入なしで自動的に修復でき、ビジネス アクセスには影響しません。プロセスは次のとおりです (次の図を参照): 本番ホストがストレージ A のデータを読み取る –> ストレージ A が検証を通じて不良ブロックを検出 –> 再構築を通じて不良ブロックを修復しようとしますが、修復は失敗します (修復が成功すると、次のプロセスは実行されません) – > ストレージ A はリモート エンドで「完了」ステータスを確認し、リモート B アレイからのデータの読み取りを開始します –> データの読み取りに成功し、本番ホストの正しいデータを返します –>リモート データを使用して、ローカル側の不良ブロックに対応するデータを修復します。

(8) RAID2.0 テクノロジー: ストレージ アレイは、さまざまな RAID 保護テクノロジーをサポートし、これに基づいてさらに最適化およびアップグレードすることができ、RAID グループ内のハードディスクに障害が発生した場合、RAID2.0 テクノロジーは RAID を迅速に再構築し、データの復元 ホット スペア ディスクは、従来の技術に比べて速度が大幅に向上し、複数のディスク障害が発生するリスク確率が減少します。

二、EMC Vplex

1. アクティブ/アクティブ ソリューションの概要

EMC Vplex ストレージ アクティブ/アクティブ ソリューションは、Vplex ゲートウェイ製品に基づいて実装されており、EMC と他のメーカーのストレージを異種統合して統合ストレージ リソース プールに仮想化し、異種ストレージ アクティブ/アクティブを実現できます。Vplex アクティブ/アクティブ ソリューションには、Vplex Metro と Vplex Geo が含まれます。このソリューションは、2 つのサイトにある 2 セットの Vplex クラスター システムで構成されます。各サイトの Vplex クラスターには、独自の専用ローカル ストレージ アレイがあります。クラスターのミラーリングされたボリュームは、Vplex Access Anywhere 機能を提供します。2 つのサイトの Vplex クラスターにはそれぞれボリュームがあり、2 つのボリュームの ID は同じです。

2. プログラムの特徴

(1)クラスター構成: 以下の図に示すように、各 Vplex クラスターには Vplex 管理コンソール、1 つ、2 つ、4 つまたは 8 つのエンジンが含まれ、各エンジンにはバックアップ電源が含まれます。Vplex Local は、単一の Vplex クラスターを使用してデータ センター内のデータの移動とアクセスを管理するために使用されます。シングル、デュアル、またはクアッド構成 (それぞれ 1 つ、2 つ、または 4 つのエンジンを含む) をサポートし、ローカル Vplex はローカル クラスター (4 つのエンジンと 8 つのコントローラー) を形成し、2 サイトのローカル クラスターは Metro/Geo リモート クラスター (最大 8 つ) を形成します。エンジン、16 コントローラー)を使用して、16 制御ノードの AA クラスターを形成します。

(2)同期/非同期ソリューション: 以下の図に示すように、Vplex Metro は独自の機能を持つ 2 つの Vplex クラスターを使用し、ライトスルー キャッシュ (ライトスルー) を使用して 2 つのクラスター間のデータをリアルタイムでミラーリングし、バックグラウンドを維持します。エンド ストレージ データの一貫性を確保するには、リアルタイム同期レプリケーションを使用するため、Vplex Metro ソリューションはサイト間の RTT (往復遅延) が 5 ミリ秒未満であるという要件を満たす必要があります。Vplex Geo は、Access Anywhere を非同期に使用して保存されたデータにアクセスするために、2 つのリモート アプリケーション クラスター ノードに使用されます。Vplex Geo 分散ボリュームは、ライトバック キャッシュを使用して、Access Anywhere 分散ミラーリングをサポートします。このソリューションは、間の最大 RTT (ラウンドトリップ遅延) をサポートできます。サイトは50ミリ秒です。さらに、Vplex Metro および Vplex Geo ソリューションで展開されたクラスターでは、サイト間のエンジンの数がまったく同じである必要はありません。

(3)ストレージ層でのネットワーク: 次の図は、Vplex Metro アクティブ/アクティブ ソリューションにおけるホストのクラスター間接続のネットワーク アーキテクチャを示しています。ホストと Vplex クラスター間のアクセス、Vplex クラスターとバックエンド ストレージ間のデータ送信、および Vplex クラスター間の通信ネットワークはすべて分離されています。最高レベルの高可用性を確保するために、各 Vplex Director のフロントエンドエンド I/O モジュールと SAN ファイバー スイッチのペアは、2 つ以上の物理接続を確保する必要があります。各ホストと、各 Vplex エンジンの A ディレクターおよび B ディレクターは、複数のパス接続を維持する必要があるため、8 つの論理パスが存在します。ホストと Vplex エンジンの間。各サイトに 2 つまたは 4 つのエンジンがある Vplex クラスターの場合、ホスト接続はすべてのエンジンをカバーする必要があります。さらに、ホストとローカル Vplex クラスター間の接続が中断された場合、ホストが Vplex にアクセスできるようにするために、別のサイトの Vplex クラスターへの接続を確立するには、PowerPath マルチパス ソフトウェアを使用してアクティブ/パッシブ パスを構成し、ホストがローカル Vplex に優先的にアクセスできるようにすることができます。クラスター、バックエンド ストレージ アレイは、SAN スイッチを介して Vplex エンジンのバックエンド IO モジュールに直接接続されています、いいえ、他の Vplex クラスターへのクロスサイト接続パスを構成します、ニーズに応じて調停として監視を選択します、監視のニーズ2 つの Vplex クラスターの異なるフォールト ドメイン (サードパーティ サイト) にデプロイされ、IP を介して 2 つの Vplex クラスターに接続する方法で VMware の仮想化環境にのみデプロイできます。

(4)分散一貫性キャッシュ技術:EMC Vplex は、分散キャッシュ一貫性保証を提供するクラスタ システムであり、複数の Vplex のキャッシュを統合して管理できるため、ホストはキャッシュ システム全体にアクセスできます。ホストが Vplex のキャッシュ領域に I/O を書き込むと、Vplex キャッシュはキャッシュ領域をロックし、他のホストが同時にキャッシュ領域に I/O を書き込むことはできません。ただし、ホストが I/O を読み取るとき、Vplex キャッシュにより複数のホストがキャッシュ領域にアクセスできるようになります。特に、ホストが他の Vplex クラスター内の他の Vplex ノードによって管理されているデータにアクセスするときは、統合されたキャッシュ管理によってキャッシュの場所がホストに通知されます。そしてホストは Vplex クラスター全体に直接アクセスします。分散一貫性キャッシュ テクノロジの実装では、すべてのキャッシュが統合されたままである必要はありませんが、ボリューム キャッシュ ディレクトリに基づいて小さなメモリ ブロックを追跡し、ロックの粒度によってデータの一貫性を確保します。各エンジンのキャッシュはローカル キャッシュ (Cache Local) とグローバル キャッシュ (Cache Global) に分かれており、各エンジンのローカル キャッシュは 26GB のみで、残りはグローバル キャッシュです。

(5)分散キャッシュ モード: Vplex Local および Vplex Metro はライトスルー キャッシュ モードを採用しており、Vplex クラスターの仮想ボリュームがホストから書き込み要求を受信すると、書き込み I/O はバックエンドに直接ライトスルーされます。ボリュームによってマッピングされたストレージ LUN (Vplex Metro には 2 セットのバックエンド ストレージ LUN が含まれます)、バックエンド アレイが書き込み I/O の完了を確認した後、Vplex は書き込み I/O を完了するための確認信号をホストに返します。 /O サイクル。ライトスルー キャッシュ モードでは、バックエンド ストレージ アレイがディスクの読み込みを完了するまで待機する必要があるため、高い書き込み I/O 遅延が必要になります。このライトスルー キャッシュ モードは、最大クロスサイト ラウンドトリップ遅延 50 ミリ秒をサポートする Vplex Geo ソリューションには適していません。このキャッシュ モードを使用すると、ホストのパフォーマンスに非常に大きな影響があり、ほとんどのユーザーにとっては明らかに受け入れられません。アプリケーション。したがって、Vplex Geo はライトバック キャッシュ モードを採用しており、このモードでは、Vplex はホストから書き込み要求を受信した後、エンジン コントローラーのキャッシュに直接書き込み、書き込み I/O をエンジンの別のコントローラーおよび別のセットにミラーリングします。 Vplex クラスターのエンジン コントローラーのメモリ内で、ホストへのこの書き込み I/O サイクルを確認します。最後に、データはエンジンのバックエンドにあるストレージ アレイに非同期的にダンプされます。停電が発生した場合、Vplex エンジンのバックアップ電源により、キャッシュ内のすべての非永続データがローカル SSD ストレージに一時的に保存されます。ライトバック キャッシュ モードは、バックエンド ストレージ アレイがディスクに配置されるのを待たずにホストに応答できるため、Vplex アクティブ/アクティブ ソリューションの距離と遅延の要件が大幅に改善されます。

(6)読み取り I/O 高速化機能: 読み取り I/O を高速化できる読み取りキャッシュおよび書き込み I/O メカニズムを備えています。読み取り I/O のパフォーマンスを向上させるために、I/O を書き込むときに、ローカル ローカル キャッシュに直接書き込まれていない場合は、対応する古いデータがローカル キャッシュとグローバル キャッシュにあるかどうかを最初に確認し、古いデータがある場合は、最初に確認します。古いデータを破棄してからローカルに書き込み、次にライトスルー キャッシュ モードを通じて 2 セットのバックエンド ストレージ アレイに書き込み I/O をフラッシュします (下図を参照)。最後に、ホストの書き込み I/O が報告されています。 O サイクルが完了すると、同時にグローバル キャッシュ内のインデックスがそれに応じて変更され、分散キャッシュの一貫性を実現するためにすべての情報がエンジン上で共有されます。さらに、Vplex メカニズムでの書き込み I/O では、さらに 2 つのクロスサイト往復遅延を追加する必要があります (公式によれば、1 ~ 1.6 ミリ秒の遅延が発生するとされています)。ライトスルー キャッシュにより、書き込み I/O パフォーマンスがさらに犠牲になります。

I/O を読み取るときは、最初にローカル キャッシュを読み取ります。ヒットが直接読み取られた場合、読み取り I/O 高速化効果は明ら​​かです。グローバル キャッシュでヒットした場合は、対応する Vplex エンジン キャッシュから、ローカル キャッシュ、およびフィードバック ホストは I/O 結果を読み取り、続いて I/O アクセラレーション効果が適用されます。グローバル キャッシュにヒットがない場合は、ローカル バックエンド ストレージ アレイからローカル キャッシュに読み取られます。 、ローカル キャッシュとグローバル キャッシュ内の情報も同時に変更されますが、インデックス情報、読み取り I/O アクセラレーションは効果がありません。

(7) CDP テクノロジーのサポート: Vplex はストレージ異種仮想化とミラーリングの 2 つの機能のみを提供しており、スナップショットやレプリケーションなどの機能は EMC 独自の RecoverPoint を追加することで実装する必要があるため、Vplex のネットワーク方式と併用することが検討されることが多いRecoverPoint を使用します。さらに、Vplex は I/O オフロード ソフトウェアを統合しています。Vplex は各ホストの書き込み I/O を RecoverPoint に同期的にコピーします。RecoverPoint は各 IO を記録し、CDP を使用して任意の時点でのリカバリを実現します。次の図は、Vplex アクティブ-アクティブ ソリューションと Vplex アクティブ-アクティブ + RecoverPoint CDP ソリューションの書き込み I/O プロセスの比較を示しています。後者では書き込み I/O 遅延と書き込み I/O 増幅が増加し、特定の影響が生じます。パフォーマンス。

3.IBM SVC

1. アクティブ/アクティブ ソリューションの概要

IBM は、SVC ストレージ アクティブ/アクティブ テクノロジーに対して 2 つの異なるソリューションを提供しています。拡張ストレッチ クラスターと HyperSwap です。どちらも、仮想化ストレージ プラットフォーム上のアクティブ/アクティブ データ センターに基づくストレージ アクティブ/アクティブ ソリューションであり、上位層アプリケーションにストレージ AA を提供します。アクティブ/アクティブまたは高可用性アーキテクチャにより、ストレージ層のコンポーネントに障害が発生しても上位層のアプリケーションが中断されなくなります。SVC 拡張ストレッチ クラスター (SVC ストレッチ クラスター アーキテクチャとも呼ばれます) は、サイト間で相互保護モードにある同じ SVC I/O グループ内のデュアル ノードを拡張し、2 つの異なるデータ センターに分散します。 Vdisk Mirror テクノロジを通じて、2 つのサイトの 2 つのストレージにリアルタイムで送信されます。SVC ESC と比較して、SVC HyperSwap の主な目的は、ローカル SVC ノードの単一点の隠れた危険を排除し、ホスト ストレージの冗長パスを増やし、SVC アクティブ/アクティブの高可用性をさらに向上させることです。2 つの I/O グループと 2 セットのストレージ間のデータのリアルタイム同期は、メトロ・ミラー・テクノロジーによって実現され、単一の SVC ノードの障害によって引き起こされるパフォーマンスの問題と、2 つの SVC ノードの障害によって引き起こされるデータ・ボリュームへのアクセス不能を解決します。ノード。上記 2 つのスキームのアーキテクチャは対称アーキテクチャであり、スプリット ブレイン現象を防ぐために 3 番目のサイトでアービトレーションを構成できます。

2. プログラムの特徴

(1)全体的なアーキテクチャ: SVC ESC はストレッチ トポロジ (下図 1) を採用しており、各サイトには少なくとも 1 つのノードがあり、2 つのサイトのそれぞれに 1 セットのストレージがあり、SVC VDM を通じてリアルタイム同期が維持されます。ホスト、Vdisk が 1 つだけ、ホストは 2 つのサイトの SVC ノードとの接続パスを確立し、2 つのサイトのホストがローカル SVC ノードとストレージをそれぞれ読み書きできるようにして、ストレージ アクティブの目的を達成します。 -アクティブ。2 つのサイトのストレージ ネットワークは、DWDM SVC 間のベア ファイバー レベルを通過します。HyperSwap は HyperSwap トポロジを採用しており (下の図 2)、各サイトには少なくとも 1 つの I/O グループがあり、各 I/O グループは次のように構成されています。 2 つの SVC ノードにより、ローカル SVC ノードの冗長性が向上します。各サイトに 1 セットのストレージがあり、SVC Metrol Mirror によってリアルタイム同期が維持されます。異なるサイトのホストでは、異なる LUN が表示されます。ホスト間で接続パスが確立されます。ホストと 2 つのクロスサイト I/O グループで構成されるため、パスの冗長性が向上します。

(2)光ファイバーリンクネットワーキングとアービトレーション: プライベートとパブリックの 2 つの FC ネットワークを確立することで両方のソリューションを分離でき、プライベート ネットワークは 2 つの SVC ノードまたは 2 セットの SVC I/O グループ キャッシュの同期とハートビート間のデータに使用されます。パブリック ネットワークは、ホストと SVC ノード間、および SVC ノードとストレージ間のデータ伝送に使用されます。2 つのサイトの FC ストレージ ネットワークは、クロスサイト DWDM (波長分割多重) 間の 2 対のベア光ファイバを介してカスケード接続されます。調停モードとしては、FCリンクを使用する調停ディスクとIPリンクを使用する調停サーバーの2つのモードをサポートしています。

(3) I/O アクセス パス: SVC ESC スキームでは、ホスト パスにアクセスできるようにするために、ホストはローカル サイトの SVC ノードとリモート サイトの SVC ノードへの I/O パスを構成する必要があります。ローカル サイトのノードに障害が発生した場合、ただちにリモート サイトに切り替えて、同じ I/O グループ内の他の SVC ノードにアクセスします。SVC HyperSwap ソリューションでは、クロスサイト ホスト アクセス ノード パスは、すべての障害を回避するためにオプションの構成です。サイトでのストレージ パス障害 (APD) シナリオ RTO が長すぎる場合は、サイト間のホスト アクセス ノード パスを構成することをお勧めします。ホスト側は SDDPCM マルチパス ソフトウェアを使用し、ALUA ベースのパス ポリシーを構成して、どの SVC ノードがホストのローカル ノードであるかを示し、ホストがサイトをまたがって他の SVC ノードにアクセスできないようにします。すべてのローカル パスが無効でない場合、ホストはこのサイト上の SVC HyperSwap I/O グループの優先ノードに優先的にアクセスします。すべてのローカル パスに障害が発生すると、ホストはサイト全体でリモート SVC HyperSwap I/O グループにアクセスしますが、ALUA ベースのパス ポリシーはリモート SVC 優先ノードを識別できないため、ALUA ポリシーはラウンドロビン、ポーリング ポートに変更されます。すべてのリモート SVC ノードにアクセスします。

(4) SVC ESC サイト認識機能: 2 つのサイト内のすべてのオブジェクトには、SVC ノード、ホスト、ストレージなどを含むサイト属性があり、SVC ローカル クラスターの下の I/O グループ優先ノードの概念が薄れます。 /O グループ 両方のノードは同等であり、2 つのサイトのホストは、同じ I/O グループの 2 つの SVC ノードを介して同じ Vdisk に並行してアクセスできます。つまり、ローカル読み取り I/O の最適化、ローカル書き込み I/O の最適化により、I/O のローカライゼーションが確保され、リモート I/O アクセスによるパフォーマンスへの影響が回避されます。

(5) SVC ESC キャッシュ メカニズムの特徴: SVC の各ノードには、ホスト I/O データをリアルタイムで保存するために使用されるいくつかの容量のキャッシュが含まれており、I/O 物理ストレージによって引き起こされるパフォーマンスへの影響を軽減します。SVC はホストとストレージの間に配置されるため、ホストからストレージへのアクセスの I/O 遅延が増加しません。SVC には、ローエンド ストレージのキャッシュを拡張する効果があり、ローエンド ストレージのパフォーマンスが向上します。 SVC ESC の I/O /O グループのノードに障害が発生すると、別のノードが引き継ぎ、書き込みキャッシュが無効になり、ライトスルー モードになり、パフォーマンスがわずかに低下します (SVC HyperSwap と比較)サイト障害シナリオでは、リモート I/O グループには完全な書き込みキャッシュ保護メカニズムがあり、ライトスルー モードに直接入ることで引き起こされるパフォーマンスの低下を回避できます); SVC ESC の I/O グループは一連のキャッシュを採用しますこれにより、書き込み I/O のロック相互排他メカニズムを実現し、2 つの SVC ノードとストレージが真のアクティブ/アクティブであり、ホストの読み取り/書き込みアフィニティを持つことを実現できます。いずれかの SVC ノードの電源に障害が発生すると、SVC が内蔵バッテリまたは外部 UPS モジュールは、SVC ノード内のすべてのキャッシュ データが更新されるまで電力を供給し続けることができます。 バックエンド ストレージ アレイに入ったら、SVC ノードをシャットダウンします。

(6) SVC HyperSwap マスター/スレーブ ボリューム メカニズム: HyperSwap ボリューム関係を確立した後、2 つのサイトのホストがそれぞれマスター ボリュームと補助ボリュームをマップし、どちらのボリュームがマスター ボリュームとして機能しているかを示し、すべての I/O サービスを提供します。 ; ボリュームの SVC I/O グループ。2 つのサイトのすべての読み取りおよび書き込みリクエストは、この I/O グループを通過する必要があります。マスター ボリュームの I/O グループとホストが同じサイトにある場合、ホストはこのサイトでは、ローカルで I/O の読み取りおよび書き込みが可能です。グループおよびバックエンド ストレージ アレイ。マスター ボリュームの I/O グループとホストが同じサイトにない場合、サイトのホストは、このサイトの SVC I/O グループを通じてマスター ボリュームが配置されている I/O グループにリクエストを転送します。 、読み取りおよび書き込みリクエストを処理します。HyperSwap は、ローカルの読み取りおよび書き込み I/O トラフィックと、読み取りおよび書き込み転送された I/O トラフィックを自動的に比較して、マスターと補助の属性を逆転するかどうかを決定します。I/O トラフィックは、I/O の数ではなくセクターの数を指します。最初の HyperSwap ボリュームが作成され初期化された後、システムはどのボリュームがマスターであるかを自動的に決定します。AUX ボリュームの I/O トラフィック (読み取り/書き込みおよび転送された I/O トラフィック) が、連続 10 分を超えてすべての I/O トラフィックの 75% を超えると、マスター ボリュームと補助ボリュームの属性が逆転します。 。要約すると、HyperSwap マスター/スレーブ ボリューム メカニズムでは、2 つのサイトのホストはローカル I/O グループのローカル読み取りおよび書き込みを実現できますが、2 セットのクロスサイト ストレージは ACTVIE-STANDBY モードであり、バックマスター ボリュームによってマップされたエンド ストレージ ストレージ アレイはプライマリ ストレージであり、補助ボリュームにマップされたバックエンド ストレージ アレイはホット スペア ストレージです。

(7) SVC シームレス ボリューム マイグレーション テクノロジ (NDVM) : 仮想ボリュームを異なる I/O グループに移行し、ノード障害への迅速な対応を実現し、単一点障害に直面した仮想ボリュームのバッチ自動移行を実行し、異なる I/O を実行できます。グループはクラスター内で孤立して存在しなくなり、複数の I/O グループ (下図の最初の左と 2 番目の左) 間で冗長保護を形成し、移行操作によって生成されるさまざまなリスクをインテリジェントに分析して、移行プロセスの安全性を確保します。信頼性のある。このテクノロジは、SVC に組み込まれた軽量アプリケーションを通じて実装されており、導入と使用が簡単で、システム オーバーヘッドが低くなります。さらに、障害が発生したノードをウォーム スタンバイ ノード (下図の右の 1 番目) に迅速に置き換えることで、クラスターを迅速に正常な状態に復元できます。

4. HDS GAD

1. アクティブ/アクティブ ソリューションの概要

HDS VSP シリーズ ストレージ用の Global-Active Device ソリューションは、独自の Hitachi Storage Virtualization Operation System (SVOS) を使用して実装されており、F600、F400) ストレージがすべてサポートされており、グローバル ストレージ仮想化、分散型連続ストレージ、ゼロ リカバリ時間、ゼロ リカバリを実現します。客観的で簡素化された分散システムの設計と運用。グローバル ストレージ仮想化は、「グローバル アクティブ ボリューム」を提供します。これらのストレージ ボリュームにより、2 つのストレージまたはサイトにある同じデータの 2 つのコピーへの同時読み取りと書き込みが可能になります。このアクティブ/アクティブ ストレージ設計により、完全なデータの一貫性と保護を維持しながら、2 つのストレージ システムがローカルまたはメトロ クラスタ構成で本番ワークロードを同時に実行できます。

2. プログラムの特徴

(1) I/O アクセス パス: 以下の図に示すように、GAD はアクティブ-アクティブ アーキテクチャを採用しており、マスター アレイとスレーブ アレイの同時読み取りと書き込みをサポートしています。すべての I/O 書き込み操作は最初にマスター LUN に書き込まれ、次にマスター LUN に書き込まれます。オリジナル HDLM を介してスレーブ LUN にマルチパス ソフトウェアを使用して優先パスを構成し、ローカル優先読み取りおよび書き込み戦略をサポートできます。G1000 以降のバージョンでは、ローカルの優先パスを自動的に識別できる ALUA 機能をサポートします。また、メインストリーム OS のサードパーティ製マルチパスとも互換性があり、すべてのローカル パスに障害が発生した場合 (APD シナリオ)、ホストはスタンバイ パスを介してサイト全体のリモート ストレージにアクセスし続けます。通常、マスター/スレーブ サイトは 100KM の距離をサポートし、FC/IP レプリケーション リンクをサポートし、8 つの物理パスとアレイ ホスト クロス ネットワーキングをサポートします。VSP G1000、VSP G1500、および VSP F1500 以降のバージョンは、最大 500KM (RTT 往復遅延 20ms) の SAN アクティブ/アクティブをサポートし、最大 32 個のアービトレーション ディスク (ストレージまたはサーバー ディスク) をサポートし、IP アービトレーションはサポートしません。仮想マシンまたは物理マシン方法。

(2)ストレージ レイヤ ネットワーキング: GAD のネットワーキングは比較的柔軟です。単一マシンのデュアル アレイ ネットワーキングはデータ センターで使用され、ストレージ レイヤのデュアル アクティブ機能のみを実現できます。サーバー ホストはシングル ポイントです。ストレージ障害を防ぐだけです。このネットワーキング方法は、クラスタリングをサポートしていないアプリケーションでよく使用されます。デュアルマシン デュアルアレイ ネットワーキングは、比較的一般的なネットワーキング方法です。このネットワーキングでは、サービス スイッチングを実現するために、サーバーにクラスタ ソフトウェアをインストールする必要があります。この種のネットワーキングは、ストレージ層とアプリケーション層の両方でアクティブ/アクティブ サービスを実現できます。クロスコネクト ネットワーキングはデュアル マシン デュアル アレイ ネットワーキングに似ていますが、ネットワーク層でクロスオーバー冗長性を実現します。推奨されるネットワーク方法。つまり、サーバーはすべてのストレージを参照でき、サーバーはクラスタ ソフトウェアとマルチパス ソフトウェアを使用して、障害スイッチを同時に完了します。スイッチ方法はより合理的です。大丈夫です。次の図は、サイト間のローカル シミュレーション用の GAD ネットワーク トポロジを示しています。ホスト アクセス ストレージ ネットワーク、ストレージ間ミラーリングのラウンドトリップ ネットワーク、ホストのクロスサイト ストレージ アクセス ネットワーク、およびサードサイト調停ネットワークはすべて分離されています。サイト 1 のホストは、赤色のパスを通じてサイト 1 の VSP ストレージに書き込み、サイト間 ISL ネットワークを通じてサイト 2 の VSP ストレージにミラーリングされたデータを同期します。サイト 2 のホストは、青色のパスを通じてサイト 2 の VSP ストレージに書き込み、サイト間の別の ISL ネットワーク ペアを通じて、ミラーリングされたデータをサイト 1 の VSP ストレージに同期します。

(3)仮想ストレージ マシン (VSM) : HDS を使用すると、ユーザーはビジネスおよびアプリケーションの要件に応じて 1 つの物理ストレージに複数の VSM を定義できます。VSM はストレージに似ており、独自のストレージ ID、デバイスのシリアル番号、ポート WWN を持ちます。VSM の定義により、ストレージ リソースの使用率を効果的に向上させ、アーキテクチャとビジネスの柔軟性を最大化できます。VSP は最大 8 つの VSM をサポートしますが、63231 ペアのアクティブ/アクティブ GAD ボリュームをサポートできます。HDS GAD テクノロジは、SVM を設定することによって 2 つのストレージに同じ仮想シリアル番号を使用させるため、ホストは 2 つの物理ストレージ (複数の SVM を含む場合がある) を 1 つのストレージと見なすことができます。1 つの物理ストレージで、ユーザーはビジネスおよびアプリケーションの要件に応じて複数の VSM を定義できます。VDKC は、VSP 上で仮想化された仮想コントローラです。物理コントローラの基礎となる複数のストレージを 1 つのコントローラに仮想化できるため、ホストが仮想コントローラを介してバックエンド ディスク リソースにアクセスするとき、ホストは常にコントローラ ID と対話します。バックグラウンド ストレージが変更されてもホストは認識しないため、アクティブ/アクティブなどの機能が実現されます。

(4)データの一貫性を実現するマイクロコード:HDS GAD はマイクロコードに基づいてアクティブ/アクティブを実装しており、ホスト、スイッチ、ストレージの I/O パス全体に新しい機器を追加する必要はありません。HDS GAD テクノロジは、ホストの I/O 書き込みプロセスに冗長な手順を追加しません。実装方法は、両側で I/O を書き込んだ後にホストに戻る拡張同期レプリケーション テクノロジ TrueCopy であり、プロセス全体でデータの整合性を確保します。 2 つのホスト 同じストレージ ブロックに同時に書き込む場合、HDS はデータの整合性を確保するために、書き込まれたストレージ ブロックをロックします。ホスト読み取り I/O は、ローカル読み取りからマルチパスを通じてサイト アフィニティを維持します。

(5) HDS 3DC テクノロジー: HDS は、「アクティブ-アクティブ + レプリケーション」3DC モード、つまり HDS GAD+ストレージ非同期レプリケーションをサポートし、SAN および NAS 3DC の三角増分レプリケーションをサポートします。プライマリ サイトとリモート サイト間の非同期レプリケーションは、ログを通じてデータの差異を記録します。アクティブ/アクティブのマスター LUN とスレーブ LUN の両方が、ディザスタ リカバリ サイトとの差分データを記録します。ログ ID は、差分記録の先頭で調整されます。 1 つのアクティブ/アクティブ ノードに障害が発生した後、もう一方のノードはリモートの災害復旧サイトとの複製を継続し、ログ ID を照会することで差分データを取得できます。

(6)ハードウェア実装はスナップショットとクローンをサポート: HDS のスナップショットとクローン機能は、高性能の専用ハードウェアに基づいて実装されており、スナップショットはマスター ノードとスレーブ ノードの両方で参照できます。

(7) HNAS+GAD アクティブ/アクティブ: HDS は、次の図に示すように、HNAS ゲートウェイと VSP GAD を介して NAS アクティブ/アクティブを実装し、SAN ブロック ストレージ サービスと NAS ファイル システム サービスを外部に提供します。ただし、NAS のアクティブ/アクティブは SAN のアクティブ/アクティブに依存しており、HNAS は現在、リモートのアクティブ/パッシブ アクティブ/アクティブを形成するために GAD にバインドされた 2 つの HNAS ゲートウェイ クラスターをサポートしています。データの読み取りと書き込みはマスター側で完了しますが、スレーブ側でもキャッシュと CNS を設定することで、キャッシュを介した部分読み取りをサポートできます。HNAS ファイル システム全体のデータは GAD アクティブ/アクティブ デバイスに保存され、HANS ノードの主な役割は、サイト間でメタデータ、ステータス、および制御データを同期することです。

(8) HNAS+GAD デュアルアクティブ ネットワーキング: 以下の図に示すように、NAS クラスターの NVRAM データ レプリケーションは 100KM 10GE ネットワーキングをサポートし、GAD マスター/スレーブ サイトは 500 km FC ネットワーキングをサポートすると主張し、最大8 つの物理リンク。HNAS ノードと GAD はクロスネットワークをサポートします。APD シナリオでは、I/O パスのみが切り替えられ、HNAS ゲートウェイは切り替えられません。NAS は調停サーバー モードを採用し、GE ネットワーキングをサポートし、SAN は調停ディスク モードを採用します。調停にはマスター サイトとスレーブ サイト間の接続と調停 FC リンクが使用され、SAN と NAS は 2 つの独立した調停システムを使用します。ネットワークの複雑さの観点から見ると、HNAS には独立した調停ネットワーク、管理ネットワーク、ミラーリング ネットワーク、NAS サービス アクセス アクセス ネットワークが必要ですが、GAD にも独立した調停ネットワーク、管理ネットワーク、データ ミラーリング ネットワーク、SAN ストレージ サービス アクセス ネットワークが必要で、合計 8 つとなります。ネットワークのクラスにはネットワーク インターフェイスに対する多くの要件があり、アーキテクチャと構成は比較的複雑です。

五、ネットアップメトロクラスター

1. アクティブ/アクティブ ソリューションの概要

Clustered Metro Cluster (略称 MCC) は、Netapp Data Ontap が提供するストレージ アクティブ/アクティブ ソリューションで、NetApp ハードウェアと ONTAP ストレージ ソフトウェアに組み込まれた高可用性および無停止操作機能を強化し、追加のレイヤーを提供します。ストレージとホスト環境全体を保護します。FAS/V シリーズ ストレージのデュアル コントローラーを介して、光ファイバーまたは光ファイバー スイッチを使用してコントローラー間の距離を延長し、リモート HA ペアを形成し、SyncMirror およびストレージ ミラーリングを介してコントローラー間で集約レベルのデータ ミラーリングを実現します。物理的に分離されています。ローカル コントローラーの冗長性をさらに高めるために、ローカルとリモートに 2 台のコントローラーを配置し、2 台のローカル コントローラーで HA ペアを構成し、ローカル クラスターとリモート クラスターの 2 組で 4 ノード クラスターを構成します。お互いを守るために。

2. プログラムの特徴

(1)ストレージ レイヤ ネットワーク: メトロ クラスタのストレージ レイヤ ネットワークは非常に複雑で、マスター/スレーブ サイトは 300 キロメートルの FC ネットワークをサポートし、SAN クラスタは最大 12 個のコントローラをサポートし、NAS クラスタは最大 8 個のコントローラをサポートします。下図の4つの制御ノードの場合、3種類のネットワーク相互接続装置、6種類のネットワーク、およびFC-to-SAS変換装置4セット、FCスイッチ4セット、およびFCスイッチを含む12セットのネットワークデバイスを構成する必要があります。 4 セットの 10GE スイッチ。エンジン内のデュアル コントローラーは PCI-E 相互接続をサポートしていません。外部 10GE/4GE イーサネット ネットワークを通じて相互接続する必要があります。第 3 サイトのアービトレーションでは IP リンクを選択でき、TieBreaker アービトレーション ソフトウェアは直接接続できます。 Linux ホストにインストールされます。

メトロ クラスターには、2 つのクラスター構成の同期、NVRAM ログの同期、バックエンド ディスクの同期など、複数の種類のデータ同期が含まれており、システム内のこれら 3 種類のデータ同期は異なるネットワークを使用します。2 クラスタ構成同期ネットワーク: 専用の冗長 TCP/IP ネットワークを介して、CRS (構成レプリケーション サービス) サービスが 2 つのクラスタの構成データをリアルタイムで同期し、クラスタの一方の端で変更された構成が確実に反映されるようにします。 IP、SVM の追加、または追加または削除 ユーザー共有などの構成操作は、リモート HA ペア クラスタに自動的に同期できます。NVRAM ログ同期ネットワーク:追加の冗長 FC-VI クラスタ アダプタを使用して 2 つのクロスサイト マスターを接続し、FC-VI をサポートします。 RDMA は、2 つのクラスター間の NVRAM 同期とハートビートに使用される Qos およびその他の機能をサポートします。これにより、ハートビートの優先順位が保証されるだけでなく、RDMA がグループのバッチ取得をサポートするため、データ書き込み I/O 送信の数も削減されます。アドレス空間技術、グループの一括取得 アドレス後、データは後から直接送信され、FCプロトコルの2回の書き込みが1回に近くなるように最適化され、バックエンドデータが二重書き込みされます。ディスク ネットワーク: コントローラとストレージ アレイの間で独自の FC-to-SAS デバイスが使用され、コントローラのデータが送信されます。FC ネットワークは送信に使用され、バックエンド ディスク アレイは SAS 経由でネットワークに接続する必要があります。したがって、最初に FC と SAS の変換 (ファイバー ブリッジ) を実行し、指定された Cisco および Brocade の専用スイッチを使用して 2 つのサイト コントローラーとバックエンド ディスクを接続し、プロトコルの変換を完了する必要があります。

(2)メトロ クラスタ クラスタ: メトロ クラスタの各コントローラの NVRAM は 4 つの領域に分割されており、ノードのローカル ログ、HA ペア パートナー ログ、リモート HA ペア パートナー ログ、およびリモート ノードへのアクセスに使用されます。 HA ペア補助ログ (切り替えに使用)。新しい書き込み操作が要求された場合、最初にローカルに書き込み、次にローカル HA ペアの NVRAM とリモート DR ペアの NVRAM に同期して成功を返します。ローカル コントローラーに障害が発生すると、ビジネスは に切り替わります。 HAペアノードを先に接続し、コントローラが復旧後、自動的にスイッチバックし、サイト全体に障害が発生した場合のみ、リモートサイトに業務を切り替えて運用します。切り替え時間は、上位層のサービスに影響を与えることなく、120秒以内に完了するように制御されます。

(3) SyncMirror 同期: SyncMirror は、Netapp HyperMetro の中核となるデータ同期技術であり、NVRAM ログをディスクにダウンロードする際に、マスターサイトとスレーブサイトのディスクへの二重書き込みを実現します。SyncMirror は集約層で動作し、ミラーリングされた集約は、ローカル Pool0 の Plex0 とリモート Pool1 の Plex1 の 2 つのプレックスで構成されます。書き込みプロセス: NVRAM ログがあり、フラッシュが開始されると、書き込み要求はローカル Plex0 とリモート Plex1 に同時に書き込まれ、両方が同時に正常に書き込まれた後、成功を返します。読み取りプロセス: データは最初にローカル Plex0 から読み取られ、リモート Plex1 の読み取り権限をコマンドで有効にする必要があります。デフォルトでは、リモート Plex1 は読み取りサービスを提供しません。

サイト内で Plex に一方的な障害が発生した場合、アグリゲートのスナップショットを通じて増分リカバリが実行されます。デフォルトでは、アグリゲート内の予約スペースがアグリゲートのスナップショットに使用され、アグリゲートの再同期のベンチマーク データとして使用されます。スナップショットが作成されていない場合、プレックス障害後に回復するには完全同期が必要です。

(4) AP アーキテクチャ: NetApp MCC ソリューションはディスク ミラーリング アーキテクチャに基づいており、上位層のアプリケーションは 1 つの LUN/ファイル システムのみを参照し、ミラーリング アグリゲートを通じてアクティブ/アクティブを実現します。データはローカルおよびリモートのプレックスに同期されます。2 ノードまたは 4 ノードの MetroCluster クラスタの場合、同時に、LUN/ファイル システムはクラスタ HA ペア クラスタの 1 つのノードにのみ提供でき、このノードに障害が発生した場合にのみ、HA のパートナー ノードが提供されます。または、サイト全体に障害が発生した場合、スレーブ サイトの HA ペア クラスタがビジネスを引き継ぎ、CFOD コマンドを手動で実行するか、TieBreak 調停ソフトウェアによってサイトの切り替えをトリガーできます。したがって、本質的には、同じ LUN のアクティブ - アクティブではなく、アレイの異なるエンジン間のアクティブ - アクティブであり、アクティブ - パッシブ モードでのアレイのアクティブ - アクティブにすぎません。

(5)異種仮想化: 既存ネットワーク上の異種ストレージを引き継ぐことができますが、FAS シリーズのローカルディスクと異種ストレージ間のアクティブ/アクティブはサポートしません、デュアルをサポートします異種ストレージを引き継ぐと、元のアレイのデータは破壊されます. 引き継ぎ前に元の配列データを別の場所に移行する必要があり、引き継ぎ後は元のデータに戻ります。

(6)豊富な付加価値機能:すべてのFASシリーズ製品(FAS3240、FAS3210、FAS3270を除く、FAS2xxxを除く)はMetroClusterをサポートしており、別途ライセンスは必要ありません アクティブ/アクティブブロックストレージとファイルストレージの統合、その他の付加価値SSD アクセラレーション、スナップショット、レプリケーション、データ圧縮、シン プロビジョニング、重複排除などの機能をサポートします。

おすすめ

転載: blog.csdn.net/weixin_43025343/article/details/132269656