性能は約2倍!Boost テクノロジーを使用して、Dameng データベースをホストする SmartX ハイパーコンバージド新荘プラットフォームのパフォーマンスを最適化する方法の詳細な説明

現在、すべての主要産業は新荘市の変革を加速しており、初期テスト事業やエッジ生産事業から重要な作業負荷を担おうとする「深海ゾーン」に徐々に参入しつつある。ほとんどのユーザーは、新荘のエコロジー ソリューションのパフォーマンスと特性についてあまり詳しくないため、中核事業の新荘変革に関して必然的に疑問や懸念を抱きます: 新荘データベースと新荘ハードウェアのパフォーマンス レベルはどのくらいですか? 仮想化プラットフォームまたはハイパーコンバージド プラットフォームではどのように動作しますか? ソフトウェアとハ​​ードウェアを最適化する余地はありますか?

上記の要件に基づいて、SmartX ソリューション センターは、SmartX ハイパーコンバージド新荘プラットフォーム (Kunpeng チップをベースとした新荘サーバー) 上の新荘データベース製品 (Dameng DM8) のパフォーマンス テストを実施し、独自の Boost アクセラレーション テクノロジを使用してデータベースを調整しました。素晴らしい。テスト結果は、データベースのパラメーター調整と組み合わせて、ブースト モードの SmartX ハイパーコンバージド新荘プラットフォームでサポートされている Dameng データベースがほぼ 100% のパフォーマンス向上を達成したことを示しています。

キーポイント
● このテストでは、BenchmarkSQL を使用して TPC-C ベンチマークに基づくテストを実行し、ベアメタル サーバー上の Dameng DM8 データベース (それぞれ SATA SSD と NVMe SSD に基づく)、ブースト モード最適化を行わない SmartX ハイパーコンバージド新荘プラットフォーム、およびハイパーコンバージド プラットフォームでの最適化後のパフォーマンス。
● ブースト モードでの最適化方法には、BIOS パラメータの最適化、ブースト モードの有効化と RDMA ネットワークの最適化、仮想マシン設定の最適化(CPU 排他機能の有効化やシック プロビジョニングへの仮想ディスク ストレージ戦略の調整を含む)、仮想マシンのオペレーティング システム パラメータの最適化が含まれます。 (ネットワーク最適化のための CPU マルチコア機能の使用)、およびデータベース関連の最適化。
● 最適化を行わない場合、Xinchuang アーキテクチャに基づく SmartX ハイパーコンバージド Dameng データベースのパフォーマンスは、ベア メタル サーバー (SATA SSD に基づく) のパフォーマンスの 80% です。ブースト モードでチューニングした後、データベースのパフォーマンスはほぼ 2 倍になり、ベア メタル サーバー (メディアとして SATA SSD を使用) の 1.77 倍、NVMe ベア ディスクの 88% に達します。

1 テスト環境

1.1 Dameng DM8 データベース

DM8 は、Dameng Company が DM シリーズ製品の開発と応用経験を要約し、オープンイノベーション、シンプルさ、実用性の概念に基づいて立ち上げた新世代の自社開発データベースです。DM8 は、現在の高度な技術的アイデアと主流のデータベース製品の利点を吸収して活用し、分散型エラスティック コンピューティングとクラウド コンピューティングの利点を統合し、柔軟性、使いやすさ、信頼性、高いセキュリティなどの側面を大幅に改善します。一元化されたアーキテクチャは、さまざまなシナリオのニーズを完全に満たし、超大規模な同時トランザクション処理とトランザクション分析ハイブリッド ビジネス処理をサポートし、コンピューティング リソースを動的に割り当てて、より洗練されたリソース利用と低コスト投資を実現します。

1.2 新荘ハードウェア (Kunpeng チップ)

このテストで使用された新荘サーバーは KunTai R722 です。

テスト サーバーには、現在業界をリードする ARM ベースのプロセッサである Kunpeng 920 シリーズ CPU が搭載されています。このプロセッサは7nm製造プロセスを使用し、ARMアーキテクチャに基づいてライセンス供与されており、ファーウェイによって独自に設計されています。

Kunpeng 920 5250 の明らかな特徴は、多くの CPU コアを備えていることです。シングル チャネル CPU には 48 コア、2 チャネル CPU には合計 96 コアがあります (最も一般的に使用されている Intel Xeon シリーズ CPU には約 20 コアがあります)チャンネルごと)。したがって、その後のパフォーマンスの最適化の焦点の 1 つは、マルチコアの利点をより効果的に活用する方法です。 

サーバーの詳細な構成は次のとおりです。

 

1.3 SmartX ハイパーコンバージド新荘クラウド インフラストラクチャ

Zhiling Haina SmartX は、ハイパーコンバージド ソフトウェア SMTX OS をコアとして採用し、自社開発、分離された、実稼働対応のハイパーコンバージド新荘クラウド インフラストラクチャ製品ポートフォリオを提供します。これは、多くの業界ユーザーによる軽量の新荘クラウド ベースの構築を支援してきました。SMTX OSは、ハイパーコンバージドプラットフォームを構築するためのコアソフトウェアであり、ネイティブサーバー仮想化ELFと分散ブロックストレージZBSを内蔵しており、アクティブ/アクティブ、非同期レプリケーション、バックアップとリカバリ、ネットワークなどの高度な機能を搭載できます。商用サーバーを使用すると、強力で機敏なクラウド リソース プールを迅速に構築できます。より深く理解するには、ハイパーコンバージド新荘クラウド インフラストラクチャに関する記事を参照してください。

ブースト モードは、SMTX OS の高パフォーマンス モードです。このモードでは、メモリ共有テクノロジを使用して仮想マシンの I/O パスを短縮し、それによって仮想マシンのパフォーマンスを向上させ、I/O アクセス遅延を短縮します。ブースト モードは通常、ストレージ パフォーマンスを最大化するために RDMA ネットワークで有効になります。ブースト モードの実装原理について詳しく知りたい場合は、「SPDK Vhost-user がハイパーコンバージド アーキテクチャの I/O ストレージ パフォーマンス向上に貢献する方法」を参照するか、QR コードをスキャンして電子ブック「SmartX」をダウンロードしてください。ハイパーコンバージド技術原理と機能分析集(VMware比較含む)》

2 試験方法

このテストでは、BenchmarkSQL を使用して TPC-C ベンチマークに基づくテストを実行し、ベア メタル サーバー (それぞれ SATA SSD と NVMe SSD に基づく) 上の Dameng DM8 データベース、ブースト モード最適化なしの SmartX ハイパーコンバージド新荘プラットフォーム、およびプラットフォーム上で最適化されたハイパーコンバージド パフォーマンス。

3 試験規格と参考資料

3.1 TPC-C テスト

TPC-C は、業界で認められたトランザクション処理パフォーマンスのベンチマークです。これは、オンライン トランザクション処理 (OLTP) システムのパフォーマンスをテストするために、トランザクション処理パフォーマンス評議会 (TPC) によって発行された標準ベンチマークの 1 つです。TPC-C テストは、顧客の注文、在庫管理、配送処理などの一連のトランザクション操作を含む仮想オンライン注文処理アプリケーションに基づいています。TPC-C テストの結果は、1 分あたりのトランザクション数 (TPM) で測定されます。

BenchmarkSQL は、TPC-C テスト仕様を使用してベンチマーク テストを実行できるツールです。具体的には、BenchmarkSQL は、TPC-C テスト仕様で定義されているトランザクション操作とデータ構造を使用して、TPC-C テスト環境をシミュレートし、データベース システム上でパフォーマンス テストを実行できます。したがって、BenchmarkSQL は TPC-C テストの実装と考えることができます。

このテストでは、ハイパーコンバージド Xinchuang プラットフォーム上のデータベースのパフォーマンスをより客観的に評価するために、BenchmarkSQL を使用して TPC-C ベンチマークに基づくテストを実行します。

このテストで使用したソフトウェアのバージョンは次のとおりです。

 

3.2 テストリファレンス

ユーザーはこれまでに一部のデータベースの TPC-C テスト データについて学習したことがあるかもしれませんが、これらのデータのほとんどは x86 アーキテクチャのサーバー環境に基づいており、Xinchuang チップの TPC-C パフォーマンスを必ずしもよく理解しているとは限りません。これを念頭に置いて、まず Dameng データベース ソフトウェア (物理マシンの展開) をベア メタル サーバー (Kunpeng チップベース) に直接展開し、その後のパフォーマンスと比較するための参照として一連の TPC-C テストを実行しました。 SmartX ハイパーコンバージェンス。

3.2.1 異なるストレージメディアでのパフォーマンス

データベースはディスク I/O パフォーマンスの影響を受けるため、テスト シナリオでは 2 つの異なるタイプの SSD をストレージ メディアとして使用し、別々にテストしました。まず、2 台の SSD の I/O ベンチマーク パフォーマンスとして、FIO テスト ツールを使用して SSD に対して I/O ストレス テスト (8k ランダム読み取りおよび書き込み) を実行した結果は次のとおりです。

 次に、2 つの SSD でそれぞれ Dameng データベースの TPC-C テスト (100 ウェアハウス、200 端末) を実行した結果は次のとおりです。

*注意: TPC-C テストでは、NewOrder の値がテスト結果として取得されます。以降の結果についても同様です。これについては再度説明しません。

2 つのデータ セットは同じサーバーでテストされ、次の結論が導き出されます。TPC-C テストの結果はストレージ I/O 機能の増加に伴って増加しますが、2 つは完全に等しいわけではありません(NVMe の I/O SSD O の書き込み能力は SATA SSD と比較して 340% 向上しますが、TPC-C は約 102% しか向上しません)。

3.2.2 CPU NUMA グループのパフォーマンスへの影響

テストは 2 つのグループに分かれています。

  • グループ A: データベース プログラムは、numactl コマンドを通じて同じ CPU の 2 つの NUMA グループ (48 コア) にバインドされています。
  • グループ B: データベースは CPU に依存しておらず、サーバー上のすべての CPU コア (96 コア) を利用します。

テスト結果は次のとおりです。

 テスト結果は少し予想外でした。グループ A (48 コア) のパフォーマンスがグループ B (96 コア) よりも優れていました。一般に、CPU コアの増加がデータベースのパフォーマンスに与える影響は、理論的にはプラスになるはずです。ただし、このテストには結果に影響を与える 2 つの要素があります。

  • Dameng データベースの作業スレッド パラメータは最大 64 をサポートします (公式の要件は、作業スレッドの数が CPU コアの数と同じであることです)。これでは、96 個の CPU コアすべてを最大限に活用することはできません。
  • データベースはクロス CPU NUMA グループで動作するため、メモリ アクセス効率が低下します。

データベースの特性と NUMA の影響を考慮して、後続のハイパーコンバージド プラットフォーム テストの仮想マシン構成は 48 vCPU の構成でテストされます (同じ CPU 内にあることを確認します)。

4 テストプロセス

4.1 試験条件

4.1.1 仮想マシンのリソース構成

4.1.2 TPC-C テストセット

  • ターミナル値を調整して、さまざまな同時アクセス圧力下でのデータベースのパフォーマンスを検証します。8 セットの端末で合計 100 ~ 800 回のテストが実行されました。
  • ウェアハウスの値を調整して、さまざまなデータセットサイズでのデータベースのパフォーマンスを検証します。100 ~ 300 の範囲の倉庫テストを合計 3 セット実行しました。倉庫の各グループは、上記の異なる端末数に基づいて、合計 24 グループのテストを実行します。

4.2 テスト 1: 最適化を行わない SmartX ハイパーコンバージド実行 Dameng データベースのパフォーマンス

 TPC-C NewOrder の最大値は、倉庫 100 台、ターミナル 300 台で生成され、 毎分90592 件の新規注文 (NewOrder) が完了します。最適化を行わないと、データベースのパフォーマンスは理想的ではなく、 ベア メタル サーバー (SATA SSD に基づく) の展開パフォーマンスの80%になります。

4.3 テスト 2: ブースト モードでチューニングした後の SmartX ハイパーコンバージド実行 Dameng データベースのパフォーマンス

4.3.1 SMTX OS Boostモードでの最適化方法

以下に、SMTX OS Boost モードで Damon Database TPC-C テストのパフォーマンスを向上させる方法を示します。

1) BIOSパラメータの最適化

ブースト モードを有効にする前に、サーバーの電力が最高のパフォーマンス状態になるように、サーバー BIOS で電力戦略を「省電力モード」から「パフォーマンス モード」に切り替える必要があります。

2) ブースト モードと RDMA ネットワークの最適化を有効にします。
  • SMTX OS クラスターを展開する最初のステップであるクラスターのセットアップ フェーズでは、[ブースト モードを有効にする] チェック ボックスをオンにします。
  • SMTX OS クラスター展開の 5 番目のステップ: ネットワークの構成では、ストレージ ネットワーク用の仮想分散スイッチを作成するときに、[ RDMA を有効にする] ボタンをクリックしてクラスターの RDMA 機能を有効にします。
3) 仮想マシン設定の最適化
  • CPU専用機能を有効にする

データベース仮想マシンを作成する場合は、CPU占有機能を確認してください。バックグラウンドでは、仮想マシンの vCPU が NUMA に自動的にバインドされ、仮想マシンのパフォーマンスが向上します。

  • 仮想ディスクストレージポリシーはシックプロビジョニングに調整されています

データベースが配置されている仮想ディスクをデフォルトのシン プロビジョニングからシック プロビジョニングに設定すると、I/O パフォーマンスがわずかに向上し、CPU 使用率が削減されます。

4) 仮想マシンのオペレーティング システム パラメータの最適化
  • CPU マルチコア機能を活用してネットワークを最適化 

TPC-C テストは、SMTX OS クラスターの外部にある BenchmarkSQL 仮想マシンを介してリクエストを開始し、ネットワークを介してデータベースにストレス テストを実行するため、ブースト モードの効果を最大限に発揮するにはネットワークの最適化が非常に必要です。Kunpeng CPU のマルチコアの利点に基づいて、ネットワーク キューと割り込みタスクが実行のために異なる CPU コアに割り当てられるため、リソースの競合が軽減され、ネットワーク伝送パフォーマンスが効果的に向上します。

方法 1: ネットワーク カード キューの CPU コアを指定する

a. ls /sys/class/net/enp1s0/queues/ を使用して、ネットワーク カードのキューのステータスを確認します。

テスト環境では、実際の状況に応じて、ネットワーク カードに対応する受信キューと送信キューの 4 つのグループがあることがわかります。

b. 複数のネットワーク カード キューにそれぞれ CPU コアを指定します。コマンドは次のとおりです。

echo 1 > /sys/class/net/enp1s0/queues/rx-0/rps_cpus
echo 2 > /sys/class/net/enp1s0/queues/rx-1/rps_cpus
echo 4 > /sys/class/net/enp1s0/queues/rx-2/rps_cpus
echo 8 > /sys/class/net/enp1s0/queues/rx-3/rps_cpus
echo 16 > /sys/class/net/enp1s0/queues/tx-0/xps_cpus
echo 32 > /sys/class/net/enp1s0/queues/tx-1/xps_cpus
echo 64 > /sys/class/net/enp1s0/queues/tx-2/xps_cpus
echo 128 > /sys/class/net/enp1s0/queues/tx-3/xps_cpus

このうち、echo 1 > /sys/class/net/enp1s0/queues/rx-0/rps_cpus は、CPU 1 をキュー rx-0 にバインドすることを意味し、CPU 0、1、2、4 つの CPU の対応する値と 3 はそれぞれ 1(20)、2(21)、4(22)、8(23) です。

方法 2: ネットワーク カード割り込みの CPU コアを指定する

a. 次のコマンドを使用して、ネットワーク カードの中断ステータスを確認します。

cat /proc/interrupts | grep virtio0|cut -f 1 -d ":"

b. irqbalance サービスがこれらの割り込みをスケジュールしないように構成ファイルを変更します。

vim /etc/sysconfig/irqbalance を通じてファイルを変更し、次のパラメータを次のように変更します。

IRQBALANCE_ARGS=--banirq=91-99

c. 次のように、各 NIC 割り込みに CPU コアを手動で割り当てます。

echo 40 > /proc/irq/91/smp_affinity_list
echo 41 > /proc/irq/92/smp_affinity_list
echo 42 > /proc/irq/93/smp_affinity_list
echo 43 > /proc/irq/94/smp_affinity_list
echo 44 > /proc/irq/95/smp_affinity_list
echo 45 > /proc/irq/96/smp_affinity_list
echo 46 > /proc/irq/97/smp_affinity_list
echo 47 > /proc/irq/98/smp_affinity_list
echo 48 > /proc/irq/99/smp_affinity_list

ネットワーク最適化の上記 2 つの部分を実行すると、TPC-C テストのネットワーク パフォーマンスが大幅に向上し、ピーク送信速度が最大 17.6%、ピーク受信速度が最大 27.1%向上します。

5) データベース関連の最適化
  • I/O 同時実行機能を最大限に活用するには、データベース ログ パラメータを調整します。

Dameng DM8 のデータベース ログ ファイル (ログファイル) の数は、デフォルトでは 2 です。SMTX OS はブースト モードをオンにした後、より強力な I/O 同時実行機能を取得するため、ログ ファイルの数を増やすことでストレージの同時実行パフォーマンスを最大限に活用できます。テストでは、ログ ファイルの数を 2 から 8 に増やすと、すべてのシナリオでパフォーマンスが大幅に向上しました。結果は次のとおりです。

 

ログ ファイルを追加した後、100 ウェアハウス シナリオのパフォーマンス改善範囲は 21% ~ 35% になります (図に示すように)。300 の倉庫シナリオでは、最大増加率は 47% です (関連するテスト データがあり、グラフは示されていません)。

  • DM8 データベース メモリ キャッシュ領域のパラメータを調整して、キャッシュ ヒット率を最適化します。

データベースが配置されている仮想マシンに割り当てられたメモリは 96GB であるため、メモリ プール パラメータとメモリ ターゲット パラメータは 90GB に設定されます (6G はオペレーティング システム用に予約されています)。関連パラメータは、/dm8/data/DAMENG/dm.ini を通じてデータベース パラメータ ファイルを変更することで調整できます。

MEMORY_POOL = 90000                 #Memory Pool Size In Megabyte
MEMORY_TARGET = 90000            #Memory Share Pool Target Size In Megabyte

DM8 データベースには、NORMAL、KEEP、FAST、RECYCLE という 4 種類のデータ バッファーがあります。

NORMAL バッファに対応する BUFFER パラメータは、高いヒット率 (90% 以上) を確保するために、できるだけ大きくすることをお勧めします。このテストでは、BUFFER バッファ サイズを 70GB に、BUFFER_POOLS の数を 48 に調整します (CPU コアの数と一致するようにします)。

BUFFER = 70000                             #Initial System Buffer Size In Megabytes
BUFFER_POOLS = 48                    #number of buffer pools

さらに、RECYCLE キャッシュ領域は一時表スペースによって使用されるため、関連するパラメーターも調整する必要があります。ここでは、RECYCLE バッファ サイズを 12GB に、RECYCLE_POOLS の数を 48 に調整します (CPU コアの数と一致するようにします)。

RECYCLE = 12000                          #system RECYCLE buffer size in Megabytes
RECYCLE_POOLS = 48                  #Number of recycle buffer pools

最後に、CPU コアの数に応じてデータベースの作業スレッドを調整する必要があります。ここでは、作業スレッドを 48 に調整します (CPU コアの数と一致するようにします)。

WORKER_THREADS = 48              #Number Of Worker Threads

*注意: dm.ini ファイルのパラメータを変更した後、変更を有効にするためにデータベースを再起動する必要があります。

  • データベース プログラムが NUMA バインディングを設定する 

DM8 データベース プログラムは、NUMA をバインドしてプログラムを同じ物理 CPU に制限することでメモリ アクセス効率を向上させ、データベースのパフォーマンスを向上させることができます。

a. SSH 経由で SMTX OS ノード (データベース仮想マシンが配置されているノード) にログインし、sudo virsh list を実行して仮想マシンの ID 番号を表示します。

b. 仮想マシン ID に基づいて sudo virsh vcpuinfo 1 を実行し、vCPU コアと物理 CPU コアの対応を確認します。

c. sudo umactl –hardware を実行して、NUMA アフィニティ関係を表示します。

d. numactl コマンドを使用してデータベースを起動し、NUMA をバインドします。

numactl -C 0-16,17-40,41-47 sh DmServiceDMSERVER start

上記の最適化操作がすべて完了したら、TPC-C テストを再実行し、最適化前のテスト データと比較します。

4.3.2 最適化後、SMTX OS Boost モードのパフォーマンスが大幅に向上しました

SMTX OS ブースト モードをオンにし、関連する最適化設定をサポートすることにより、データベースのパフォーマンスがすべてのテスト シナリオで大幅に向上し、パフォーマンスがほぼ 2 倍になりました。詳細なデータは次のとおりです。

1) 100 倉庫シーン

 

2) 200倉庫シーン

 

3) 300 倉庫シーン

 

5 テストの結論

ブースト モードと関連する最適化を通じて、SmartX ハイパーコンバージド新荘プラットフォームで Dameng データベースを実行すると、次の利点が得られます。

  • パフォーマンスはベア メタル サーバー (メディアとして SATA SSD を使用) の 1.77倍 であり、ベア メタル サーバー (メディアとして NVMe SSD を使用) のパフォーマンスに近く、 NVMe ベア ディスクのパフォーマンスの 87.6%に達します。 。
  • SMTX OS は、  データ冗長保護の2 つのコピーを提供します (ベア ディスクは優れたパフォーマンスを備えていますが、データ冗長保護はありません)。
  • SMTX OS は、 単一サーバー ホストの CPU およびメモリ リソースの50%のみを占有します 。つまり、残りのリソースでより多くのサービスを実行でき、リソース使用率を効果的に向上できます。

 

*完全な構成: データベースは、単一サーバーのすべての CPU コアとメモリ リソース (96 個の CPU と 256G メモリ) を使用します。
*ハーフ構成: データベースは、単一サーバーの CPU コアとメモリ リソースの一部 (48 CPU、96G メモリ) を使用します。

このテストは、ハイパーコンバージド Xinchuang プラットフォーム上の Xinchuang データベースの実際のパフォーマンスを読者に示すだけでなく、データベースに対する SmartX ハイパーコンバージド ブースト モードのパフォーマンス最適化効果も検証します。データベース シナリオにおける SmartX ハイパー コンバージェンスのパフォーマンスの詳細については、 「SmartX ハイパー コンバージェンス金融業界データベース サポート評価集と長期導入事例レビュー」を参照してください。

追記

テスト結果から判断すると、SmartX ハイパーコンバージド プラットフォームは、優れた I/O パフォーマンスと関連するターゲットを絞った最適化により、Dameng Database TPC-C パフォーマンス テストのパフォーマンスを大幅に向上させることができます。上記のテスト モデルはシミュレートされた運用シナリオに基づいているため、データベース パラメーターは実際の I/O ディスクの配置 (ストレージ メディアへの書き込み) に重点を置いています。「メモリ キャッシュを使用すると、ディスクを離れることなくデータベースの TPC-C パフォーマンス テストのパフォーマンスをさらに向上させることができますか?」という質問があるかもしれません。

答えは「はい」です。一方で、データベース パラメータを調整してデータベースの I/O ディスク負荷を軽減すると同時に、データベース仮想マシンのメモリを拡張し、大量のメモリを使用してデータベースの応答能力を加速することができます。一方、元のテスト モデルでは、外部プレッシャー仮想マシンがギガビット ネットワーク経由でリクエストを送信し、最終的に処理のためにデータベース仮想マシンに到達するため、プレッシャー マシンの仮想ネットワーク カード → という複数のリンクを経由します。仮想スイッチ→物理ネットワーク カード→物理スイッチ→物理ネットワーク カード→仮想スイッチ→データベース マシンの仮想ネットワーク カード。ネットワーク伝送リンク全体では、一定のパフォーマンス損失が発生します。ネットワーク送信のシールドの影響をシミュレートし、参照として追加のテストを実行できます。プレッシャー プログラムをデータベース仮想マシンにローカルにインストールして、リクエスト プレッシャーがネットワークを経由せずにデータベース仮想マシン内で直接発行されるようにします。仮想マシン内で処理されます。

上記の一連の変更後、再度 TPC-C テストを実行した結果は次のとおりです。

warehouse= 100の場合 、TPC-C の tpmc (NewOrder) 値は、さまざまな同時実行シナリオでテストされます。

 warehouse= 200の場合、TPC-C の tpmc (NewOrder) 値は、さまざまな同時実行シナリオでテストされます。

warehouse= 300の場合 、TPC-C の tpmc (NewOrder) 値は、さまざまな同時実行シナリオでテストされます。

テスト結果から、TPC-C のパフォーマンスが大幅に向上し、倉庫 100 台/ターミナル 100 台のシナリオで 468113  TPM (最高)に達したことがわかります。ただし、このデータベース構成モデルではメモリに大量のデータがキャッシュされており、I/O のフラッシュが間に合わず、システムに突然の停電が発生すると、データベースの不整合が発生する可能性があるため、運用環境のデータベースは通常、ほとんど使用されない (読み取り専用データベースでない限り) テスト結果は参考用です。

「SmartX ハイパーコンバージド テクノロジーの原則と機能の分析コレクション (VMware の比較を含む)」をダウンロードして、SmartX が技術革新を通じてインフラストラクチャのパフォーマンスと信頼性をどのように向上させるかについて詳しく学習してください。

おすすめ

転載: blog.csdn.net/weixin_43696211/article/details/131890407
おすすめ