KVM仮想化ソリューションシリーズのKVMアーキテクチャ

仮想化はクラウド コンピューティングの基盤です。仮想化以前は、物理ホストにインストールできるのは 1 つのオペレーティング システムと 1 つのコア ビジネス プログラムだけでした。仮想化により、複数の仮想マシンを 1 つの物理ホスト上で実行できます。異なるオペレーティング システムを仮想マシンにインストールし、異なるコア ビジネス プログラムを実行できます。仮想マシンは、ホストの CPU、メモリ、および I/O ハードウェア リソースを共有します。物理ホストですが、仮想マシンは論理的に互いに分離されています。

1. タイプ 1 およびタイプ 2 の仮想化

物理ホストは、仮想マシン モニター (ハイパーバイザー) と呼ばれるソフトウェア プログラムを通じてハードウェア リソースの仮想化を実装します。ハイパーバイザーがハードウェアに直接インストールされているか、ホストのオペレーティング システムに直接インストールされているかに応じて、仮想化はタイプ 1 仮想化とタイプ 2 に分類できます。図 1 に示すように、仮想化。

ここに画像の説明を挿入

図 1. タイプ 1 仮想化とタイプ 2 仮想化

タイプ 1 の仮想化では、Linux または Windows の従来のオペレーティング システムがホスト マシンにインストールされず、ハイパーバイザーがホスト マシンに直接インストールされ、仮想マシンはハイパーバイザー上で実行され、ハイパーバイザーはハードウェア リソースと仮想マシンを直接制御します。典型的なタイプ 1 仮想化は、Xen と VMware ESXi です。

タイプ 2 仮想化では、Linux または Windows の従来のオペレーティング システムがホストにインストールされ、ハイパーバイザーがホスト オペレーティング システムに直接インストールされます。一般的なタイプ 2 の仮想化は、KVM、VirtualBox、VMware Workstation です。

2. KVM仮想化の概要

KVM はハードウェア支援仮想化テクノロジに基づいて構築された仮想マシン モニタであるため、KVM アーキテクチャを紹介する前に、CPU、メモリ、I/O などのハードウェア仮想化テクノロジについて一般的な理解があることを前提としています。それについてはあまり詳しくありませんが、インターネットにアクセスして関連コンテンツについて学ぶことができるので、ここでは繰り返しません。

KVM の正式名称は Kernel-based Virtual Machine で、カーネルベースの仮想マシンであり、ハードウェア仮想化技術を用いたオープンソースの完全仮想化ソリューションであり、業界で主流の Linux 仮想化ソリューションでもあります。

2.1. KVM機能

KVM は、Linux オペレーティング システムのカーネル モジュール kvm.ko であり、kvm.ko モジュールを直接ロードすることにより、Linux カーネルは仮想マシン モニター (ハイパーバイザー) に変換され、同時に Linux カーネルを使用して管理が行われます。したがって、KVM は典型的なタイプ 2 仮想化であり、その機能フレームワークを図 2 に示します。なお、図2は危機大百科から引用したものですが、中国国内で危機大百科を訪問するのは不便であるため、ここではアクセスパスは掲載しません。

ここに画像の説明を挿入

図 2. KVM 機能フレームワーク - 元の図

図 2 の英語を編集者が中国語に翻訳して、英語が苦手な友人でも理解できるようにしました(図 3 参照)。

ここに画像の説明を挿入

図 3. KVM 機能フレームワーク - 中国語

KVM機能を紹介する前に、まず「ホストマシン」とは何なのか、「クライアントマシン」とは何なのか、「物理マシン」とは何なのか、そして「仮想マシン」とは何なのかを理解しましょう。仮想マシンモニタ(ハイパーバイザ)が動作する実際の物理マシンをホストマシンと呼びます。仮想マシンモニタ(ハイパーバイザ)上で仮想化された仮想マシンをクライアントと呼びます。したがって、おおよそのケースでは、ホスト マシンは物理マシンに相当し、クライアント マシンは仮想マシンに相当します。

以下では、KVM 機能フレームワークの紹介を始めます。クライアントはホスト オペレーティング システム上の抽象化であり、通常、抽象化はプロセスであるため、KVM クライアントは Linux プロセスに対応し、各 vCPU はこのプロセスの下のスレッドであり、IO を処理するための別個のスレッドがあります。スレッドグループ。したがって、ホスト上の各クライアントは、通常のプロセスと同様にホスト カーネルによってスケジュールされます。つまり、Linux オペレーティング システムのさまざまなプロセス スケジューリング方法を使用して、さまざまなクライアントの権限制限や優先順位などの機能を実現できます。

クライアントから見えるハードウェアデバイスは QEMU によってシミュレートされます (VT-d パススルーデバイスを除く)。クライアントがシミュレートされたデバイス上で動作すると、QEMU によってインターセプトされ、実際の物理デバイス上のドライバ動作に変換されて完了します。

2.1.1. QEMUプロセス

KVM 仮想化アーキテクチャでは、各クライアントは QEMU プロセスであり、ホスト上の仮想マシンと同じ数の QEMU プロセスが存在します。クライアントの各 vCPU は、QEMU プロセスの実行スレッドに対応します。KVM カーネルは 1 つだけです。モジュールがホスト コンピュータに組み込まれ、すべてのクライアントがこのカーネル モジュールと対話します。

2.1.2. ライブマイグレーション

KVM はライブ マイグレーションをサポートしており、サービスを中断することなく実行中のクライアントをホスト間で転送できます。ライブ マイグレーションはユーザーに対して透過的であり、クライアントは開いたままで、ネットワーク接続はアクティブなままで、ユーザー アプリケーションは引き続き実行されますが、クライアントは新しいホストに移動されます。

ライブ マイグレーションに加えて、KVM はゲストの現在の状態 (スナップショット) をディスクに永続化し、後で保存して復元できるようにします。

2.1.3. デバイスドライバー

KVM は、準仮想化ドライバーがゲスト オペレーティング システムにインストールされるハイブリッド仮想化をサポートしており、仮想マシンがエミュレートされたデバイスの代わりに最適化された I/O インターフェイスを使用できるようになり、ネットワークおよびブロック デバイスに高性能 I/O を提供します。

KVM で使用される準仮想化ドライバーは、IBM と Redhat が Linux コミュニティと協力して開発した VirtIO 標準であり、ハイパーバイザーから独立してデバイス ドライバーを構築するインターフェイスであり、複数のハイパーバイザーが同じデバイス ドライバーのセットを使用できるようにします。クライアントとの相互運用性が向上します。

同時に、KVM はインテルの VT-d テクノロジーもサポートしており、ホスト コンピューターの PCI バス上のデバイスをクライアント コンピューターに渡すことで、クライアント コンピューターはネイティブ ドライバーを直接使用してこれらのデバイスを効率的に使用できます。この使用にはハイパーバイザーの介入はほとんど必要ありません。

2.1.4. パフォーマンスとスケーラビリティ

KVM は Linux のパフォーマンスとスケーラビリティも継承しています。KVM は CPU、メモリ、ネットワーク、ディスクなどの仮想化パフォーマンスが優れており、そのほとんどが元のシステムの 95% 以上です。KVM の拡張性も非常に優れており、最大 288 個の vCPU と 4TB RAM を備えたクライアントをサポートし、ホスト上で同時に実行できるクライアント数にソフトウェアの上限はありません。

2.2. KVM アーキテクチャ

図 4 に示すように、KVM 仮想化インフラストラクチャは比較的単純です。KVM は Linux オペレーティング システムのカーネル モジュール kvm.ko です。kvm.ko モジュールを直接ロードすることで、Linux カーネルは仮想マシン モニター (ハイパーバイザー) に変換されます。同時に、KVM は QEMU を使用してシミュレートされたハードウェアを提供します。仮想マシン。

ここに画像の説明を挿入

図 4. KVM アーキテクチャ

2.2.1. KVM カーネルモジュール

KVM カーネル モジュールは KVM 仮想化のコア モジュールであり、カーネル内の 2 つの部分で構成されています: 1 つは「kvm」モジュールと呼ばれるプロセッサ アーキテクチャに依存しない部分で、もう 1 つはプロセッサ アーキテクチャに関連する部分です。 Intel アーキテクチャに準拠しているため、「kvm_intel」モジュールがここに表示されます。ホスト マシンが ADM アーキテクチャに属している場合は、以下に示すように、「kvm_amd」がここに表示されます。

root@ubuntu:~# lsmod | grep kvm
kvm_intel             294912  0               # 宿主机是Intel架构,显示kvm_intel模块
kvm                   823296  1 kvm_intel     # kvm模块

KVM は、Intel や AMD に代表される最も一般的な x86 および x86_64 プラットフォームをサポートするだけでなく、PowerPC、S/390、ARM などの非 x86 アーキテクチャ プラットフォームもサポートします。

KVM モジュールは、仮想マシンの vCPU とメモリの管理とスケジュールを担当します。主なタスクは、CPU ハードウェアを初期化し、仮想化モードをオンにして、仮想モードで仮想マシンを実行し、特定のサポートを提供することです。仮想マシンの動作。

KVM 自体はシミュレーションを実装せず、特別なデバイス ファイル /dev/kvm を作成し、ユーザー空間アプリケーション (QEMU) は /dev/kvm の ioctl 関数にアクセスすることで vCPU の作成と仮想メモリのアドレス空間割り当てを実現します。インターフェース。言い換えれば、仮想マシンを作成して実行するプロセスは、ユーザー空間アプリケーション (QEMU) と KVM モジュールの間の連携プロセスです。/dev/kvm インターフェイスを介して KVM を呼び出す QEMU のソース コードは次のとおりです。

open("/dev/kvm")                           # 打开/dev/kvm设备
ioctl(KVM_CREATE_VM)                       # 通过KVM_CREATE_VM创建一个虚拟机对象
ioctl(KVM_CREATE_VCPU)                     # 通过KVM_CREATE_VCPU为虚拟机创建vCPU对象
for (;;) {
    
    
    ioctl(KVM_RUN)                         # 通过KVM_RUN设置vCPU运行起来
        switch (exit_reason) {
    
    
        case KVM_EXIT_IO: 
        case KVM_EXIT_HLT:
    }
}

仮想マシンの外部デバイスとのやり取りについては、実際の物理ハードウェア デバイスの場合は Linux システム カーネルによって管理され、仮想外部デバイスの場合は処理のために QEMU に渡されます。

2.2.2. QEMU ユーザーステートデバイスエミュレーション

QEMU は純粋なソフトウェア仮想化テクノロジーであり、オープンソースの仮想マシン ソフトウェア プロジェクトであり、KVM 仮想化ソフトウェアには属しません。つまり、KVM がなくても、QEMU はシミュレーションを通じて仮想マシンを作成および管理できますが、純粋なソフトウェア実装のため、パフォーマンスは比較的低くなります。

KVM モジュール自体を完全な仮想マシンをシミュレートするハイパーバイザーとして使用することはできず、ユーザーが Linux カーネルを直接操作することはできないため、それを行うには別のソフトウェアが必要ですが、QEMU は KVM に必要なソフトウェアです。仮想マシンの実行中、QEMU は、KVM モジュールによって提供される /dev/kvm インターフェイスの ioctl 関数を呼び出すことによってカーネルに入ります。KVM モジュールは、仮想マシンをプロセッサの特別なモードに配置する役割を果たします。I/O 操作 (ペリフェラル インタラクション) のための仮想マシンに遭遇すると、KVM モジュールはそれを QEMU に渡し、これらのデバイスを解析してシミュレートします。

QEMU は、KVM モジュールの仮想化機能を使用して、独自の仮想マシンにハードウェア仮想化アクセラレーションを提供し、仮想マシンのパフォーマンスを大幅に向上させます。さらに、仮想マシンの構成と作成、仮想マシンが依存する仮想デバイス、ユーザーのオペレーティング環境と仮想マシン実行時の操作、および仮想マシン用の特殊なテクノロジ (ライブ マイグレーションなど) はすべて、 QEMU 自体によって提供されます。

したがって、KVM 仮想マシンの作成と運用は、ユーザー モードの QEMU プログラムとカーネル モードの KVM モジュールが連携するプロセスになります。KVM モジュールは仮想化環境全体の中核としてカーネル空間で動作し、CPU とメモリのスケジューリングを担当します。QEMU はユーザー空間でエミュレータとして動作し、仮想マシンの I/O シミュレーションを担当します。

つまり、QEMU は、QEMU/KVM ソフトウェア スタックでデバイス エミュレーションの作業を引き受ける、完全に機能するハイパーバイザーです。

2.2.3. ストレージと仮想ディスクのファイル形式

ストレージと仮想ディスク ファイルは I/O ペリフェラルに属し、I/O ペリフェラルは主に QEMU を担当するため、ストレージと仮想ディスク ファイルは QEMU の機能的特徴です。

KVM は、IDE、SCSI、SATA を備えたローカル ディスク、ネットワーク接続ストレージ NAS (NFS および SAMBA/CIFS を含む)、または iSCSI と SAN などを含む、Linux オペレーティング システムでサポートされるすべてのストレージをサポートします。

KVMでは仮想ディスクをイメージ(ミラー)という用語で表すことが多く、主に以下の3つのファイル形式があります。

  1. raw : raw 形式とも呼ばれるオリジナル形式は、ファイル システムのストレージ ユニットを仮想マシンに直接割り当てて使用し、直接読み取りと直接書き込みの戦略を採用します。この形式は実装が簡単ですが、圧縮、スナップショット、暗号化、CoW などの機能はサポートしていません。
  2. qcow2 : QEMU によって導入されたイメージ ファイル形式は、KVM のデフォルト形式でもあります。qcow2 ファイル格納データの基本単位はクラスタ (clusert) であり、各クラスタは複数のデータ セクタから構成され、各データ セクタは 512 バイトで構成されます。qcow2 では、イメージ ファイルのクラスターを見つけるために、2 つのアドレス クエリ操作が必要です。qcow2 は、実際のニーズに応じて占有スペースのサイズを決定し、より多くのホスト ファイル システム フォーマットをサポートします。
  3. qed : qcow2 の改良版。qed のストレージ、位置決め、クエリ方法、およびデータ ブロック サイズは qcow2 と同じです。その目的は、qcow2 形式のいくつかの欠点を克服し、パフォーマンスを向上させることですが、まだ成熟していません十分。
    仮想マシンのスナップショット、圧縮、および暗号化を使用する必要がある場合は、qcow2 形式を選択する必要があります。大規模なデータ ストレージの場合は、raw 形式を選択できます。qcow2 形式は容量を増やすことのみができますが、減らすことはできません。一方、raw 形式は容量を増減できます。

3. KVM管理ツール

運用可能で保守可能な KVM 仮想化ソリューションを実現するには、2 つの問題を解決する必要があります。1 つ目は仮想化テクノロジの実装で、2 つ目はクラスタ仮想マシンの管理です。今回紹介した内容は仮想化技術の問題を解決するだけであり、クラスタ仮想マシン管理の問題は解決されていないため、KVM仮想化の管理と運用保守を実現するためのKVM管理ツール一式が必要となります。

KVM モジュールと QEMU コンポーネントは仮想化テクノロジ実装の問題を解決するだけですが、KVM の仮想化環境全体を管理しやすくするためには、Libvirt サービスと Libvirt に基づいて開発された KVM 管理ツールも必要です。

3.1. Libvirt アーキテクチャ

Libvirt は、プラットフォーム仮想化テクノロジーの管理を容易にするために設計されたソフトウェアのコレクション、オープンソースのアプリケーション プログラミング インターフェイス、デーモン、および管理ツールのセットです。仮想マシンの管理だけでなく、仮想ネットワークとストレージの管理も提供します。Libvirt はもともと Xen 仮想化プラットフォーム用に設計された API セットでしたが、現在は KVM、ESX、QEMU などの他の仮想化プラットフォームをサポートしています。KVM ソリューションでは、上位の管理と運用を目的としたプラットフォーム シミュレーションに Qemu が使用され、下位の管理と運用を目的とした KVM の管理に Libvirt が使用されます。Libvirt アーキテクチャ全体を図 5 に示します。

ここに画像の説明を挿入

図 5. libvirt アーキテクチャと KVM 管理ツール

Libvirt は現在広く使用されている仮想マシン管理ツールおよびアプリケーション プログラム インターフェイスであり、すでに事実上の仮想化インターフェイス標準となっています。図 5 の仮想マシン管理ツール (virsh や OpenStack など) は、libvirt API に基づいて実装されています。Libvirt は KVM を管理するだけでなく、Xen、VMware、VirtualBox、Hyper-V などの他の仮想化ソリューションも管理できます。

Libvirt は 2 つの部分で構成されており、1 つの部分はサービス (デーモン プロセスの名前は Libvirtd)、もう 1 つの部分は API です。ホスト上で実行されるサーバー デーモン プロセスとして、Libvirtd は仮想化プラットフォームと仮想マシンのローカルおよびリモート管理機能を提供し、Libvirt に基づいて開発された管理ツールは、Libvirtd サービスを通じて仮想化環境全体を管理できます。言い換えれば、Libvirtd は管理ツールと仮想化プラットフォームの間のブリッジとして機能します。Libvirt API は、複数の仮想化プラットフォームに統一されたプログラミング インターフェイスを提供する一連の標準ライブラリ ファイルです。つまり、管理ツールは Libvirt の標準インターフェイスに基づいて開発する必要があり、開発されたツールは複数の仮想化プラットフォームをサポートできます。

3.2. KVM 仮想化管理ツール

これまでのところ、KVM には、virsh コマンド ライン ツールから OpenStack クラウド管理プラットフォーム ツールに至るまで、オープン ソースの KVM 管理ツールの完全なセットがあり、図 6 に示すように、これらのツールにはさまざまな機能レベルと ID があります。

ここに画像の説明を挿入

図 6. KVM 仮想化管理ツール

プライマリ レベルの「KVM+virsh」仮想化ソリューションは、主に /etc/libvirtd/qemu の「.xml」構成ファイルを通じて各仮想マシンの構成を記述し、virsh コマンド ラインを使用して仮想マシンを管理します。最後に、VNC/SPICE を使用して設定されたポートにリンクし、端末の動作をシミュレートします。「KVM+virsh」方式は、スタンドアロン管理モードに基づいています。スタンドアロン KVM には、データセンターやクラスターなどの高度な管理機能がありません。商業的な観点から見ると、成熟した仮想化ソリューションにはなり得ません。

中級レベルの場合、「KVM+virt-manager」仮想化ソリューションは主に、デスクトップ グラフィカル ツール virt-manager を通じて仮想マシンを直接作成、コンパイル、管理します。デスクトップ バージョンの VNC/SPICE を使用して KVM ホストに接続し、「virt-manager」コマンドを入力すると、仮想マシンを作成、コンパイル、管理するための仮想システム マネージャー ウィンドウが自動的に表示されます。「KVM+virt-manager」は依然としてスタンドアロン管理モデルです。スタンドアロン KVM にはデータセンターやクラスターなどの高度な管理機能が備わっておらず、商業的な観点から見ると、成熟した仮想化ソリューションにはなり得ません。

アドバンスト セグメントの「KVM+Web 管理ツール」仮想化ソリューションは、主に Proxmox VE、WebVirtMgr、Kimchi、oVirt などのさまざまな軽量 Web GUI ツールを使用して中小規模の仮想マシン クラスターを管理します。Web GUI ツールは使いやすく、理解しやすいもので、特に愚かな Proxmox VE は初心者に人気があります。「KVM+Web管理ツール」方式は、データセンターやクラスタなどの高度な機能を備えた中小規模の仮想マシンのクラスタ管理を実現でき、管理インターフェースも非常に使いやすいため、商用化の観点からはすでに成熟した方式となっています。仮想マシン ソリューション。

スーパーセグメントの「KVM + クラウド管理プラットフォームツール」仮想化ソリューションは、主に、OpenStack や ZStack などのクラウド管理プラットフォームを通じて、1 つ以上のデータセンターのすべてのコンピューティング リソース プール、ストレージ リソース プール、ネットワーク リソース プール、その他のハードウェア リソースを管理します。大規模/超大規模KVMホスト管理。ただし、クラウド管理プラットフォーム ツールの方法はインストールと使用の点で非常に複雑で、特に OpenStack では基本的に DevOps チームが適切に機能する必要があります。ZStack は比較的シンプルですが、軽量の Web 管理ツールよりも複雑です。

旧仮想化大手 VMware が提供する商用仮想化管理ツールと比較すると、機能や使いやすさに差はありますが、KVM の管理ツール一式は API ベースでオープンソースであり、カスタマイズには一定の利点があります。二次開発の。

3.2.1. バーシュ

virsh は、KVM 仮想化を管理するために一般的に使用されるコマンド ライン ツールであり、システム管理者が単一ホスト上で運用とメンテナンスを実行する場合、virsh コマンド ラインが最適な選択肢となります。Virsh は、libvirt API を使用して C 言語で記述された仮想化管理ツールであり、そのソース コードはオープン ソース プロジェクト Libvirt にもあります。

3.2.2. 仮想マネージャー

vir-manager は仮想マシン用のグラフィカル管理ソフトウェアであり、仮想化と対話する基盤となる部分は引き続き libvirt API を呼び出すことによって操作されます。vir-manager は、仮想マシンのライフサイクル管理の基本機能 (作成、開始、停止、スナップショットの作成、ライブ マイグレーションなど) を提供することに加えて、パフォーマンスとリソース使用状況の監視も提供し、VNC と SPICE が組み込まれています。クライアント (これは便利です) 仮想クライアントにグラフィカルに接続します。Vir-manager は、RHEL、CentOS、Fedora などのオペレーティング システムで非常に人気のある仮想化管理ソフトウェアであり、管理対象マシンの数が少ない場合には、vir-manager が適しています。グラフィカルな操作で使いやすいため、初心者が仮想化操作を学ぶ際に最初に選択する管理ソフトウェアとなっています。

3.2.3. プロクスモックスVE

Proxmox VE の使用は非常に簡単で、非常に愚かであり、初心者の間で非常に人気があります。管理操作は、大規模なデータベースに基づく管理ツールや管理サーバー ノードを特別にインストールすることなく、組み込みの Web GUI を通じて完了できます。マルチマスター クラスター アーキテクチャにより、任意のノードからクラスター全体を管理できます。JavaScript フレームワーク (ExtJS) に基づいて開発された一元的な Web 管理インターフェイスにより、GUI インターフェイスを介してすべての機能を制御できるだけでなく、仮想マシンのバックアップおよびリカバリ ログ、仮想マシンのバックアップやリカバリ ログなど、各ノードの履歴アクティビティや syslog ログを参照することもできます。マシンのオンライン移行ログ、HA アクティビティ ログなど。

3.2.4. WebVirtMgr

WebVirtMgr は、ホスト マシンと仮想マシンを一元管理する libvirt をベースに開発された KVM 管理プラットフォームであり、KVM に付属するグラフィカルな管理ツール (仮想マシン マネージャー) とは異なり、小規模な KVM アプリケーション シナリオに適しています。たとえば、10 ~ 200 台の仮想マシンを含むクラスターの場合は、WebvirtMgr が適しています。

3.2.5. キムチ

Kimchi は HTML5 ベースの KVM 管理ツールです。KVM を使用して仮想マシンをできるだけ簡単に作成するための Web ツールとして設計されており、libvirt を通じて KVM 仮想マシンを管理します。

3.2.6. oVirt

oVirt は Red Hat の仮想化管理プラットフォーム RHEV のオープンソース バージョンです。oVirt を使用して KVM 仮想マシンとネットワークを管理することで、企業はプライベート クラウド環境を迅速に構築できます。oVirt は Web ベースで管理され、管理インターフェイスは非常に使いやすいです。 oVirt は小規模および中規模のクラスターに適しています。数千の仮想マシンを含むクラスターなどの規模の場合、oVirt を使用するのが良い選択です。

3.2.7. オープンスタック

OpenStack は、パブリックおよびプライベート クラウド インフラストラクチャの構築に使用できる、オープンソースのサービスとしてのインフラストラクチャ (IaaS) クラウド コンピューティング管理プラットフォームです。OpenStack は現在、業界で最も広く使用されている最も強力なクラウド管理プラットフォームであり、仮想マシンを管理するための豊富な機能を提供するだけでなく、オブジェクト ストレージ、ブロック ストレージ、ネットワーク、ミラーリング、認証、オーケストレーション サービス、ダッシュボードなど。OpenStack は依然として libvirt API を使用して基盤となる仮想化を管理します。

3.2.8. Zスタック

ZStack は、2015 年に中国で設立されたオープンソースの IaaS プロジェクトです。そのコア システムは Java 言語で開発されています。ZStack の主な特徴は、シンプルな導入とアップグレード、およびスケーラビリティ (数万の物理ノードを管理でき、高い同時実行性をサポートできること) です。 API アクセス)、高速(仮想マシンの起動が非常に速い)、デフォルトのネットワークは NFV(ネットワーク機能仮想化)、完全な API 管理機能(Web UI 管理インターフェイスも提供)、プラグイン システム(機能の追加または削除)コア機能には影響しません)など。

ここでは、KVM ソフトウェア スタック内のいくつかの一般的な KVM 管理ツールについて簡単に紹介しますが、より詳細な紹介と使用方法については、後続の章を参照してください。KVM 管理ツールの詳細については、次の KVM 公式 Web サイトを参照してください。
一般的な KVM 管理ツール: http://www.linux-kvm.org/page/Management_Tools

参考資料:
『KVM Actual Combat - Original, Advanced and Performance Tuning』、Ren Yongjie および Cheng Zhou 著、
『OpenStack Cloud Computing Actual Combat』、Zhong Xiaoping および Xu Ning 編、

おすすめ

転載: blog.csdn.net/jianghu0755/article/details/129761050