機械翻訳について

4 環境の計画

Oracle Linux Virtualization Managerをインストールする前に、このセクションを確認してデプロイメントの計画に役立ててください。 仮想化管理プラットフォームの詳細は、「アーキテクチャ」を参照してください。

重要:

エンジン・サーバーおよびKVMホストは、単一のNIC、ボンドまたはVLANインタフェースで構成できますが、「すべてのホストを同じネットワーク・セグメントに接続する必要がある」です。

データ・センター

データ・センターは、環境内のすべての物理リソースと論理リソースを対象とした上位レベルの論理エンティティです。 複数のデータ・センターを使用でき、すべてのデータ・センターは単一の管理ポータルから制御されます。 詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のデータ・センターを参照してください。

Oracle Linux Virtualization Managerをインストールすると、デフォルトのデータ・センター(Default)の名前を変更して構成できます。 追加のデータ・センターを作成および構成することもできます。 データ・センターを初期化するには、クラスタ、ホストおよび記憶域ドメインを追加する必要があります。

  • 「クラスタ」 - クラスタは、同じデータセンター記憶域ドメインを共有し、互換性のあるプロセッサを持つ物理ホストの関連付けです。 すべてのクラスタはデータ・センターに属し、すべてのホストはクラスタに属します。 クラスタは少なくとも1つのホストを持つ必要があり、システムを記憶域プールに接続するには少なくとも1つのアクティブ・ホストが必要です。
  • 「KVMホスト」 - ホスト(ハイパーバイザ)は、仮想マシンを実行する物理サーバーです。 クラスタ内には1つ以上のホストが必要です。 データセンター内のKVMホストは、同じストレージ・ドメインにアクセスできる必要があります。
  • 「ストレージ・ドメイン」 - データ・センターには、少なくとも1つのデータ・ストレージ・ドメインが必要です。 データ・センターに必要なタイプ(NFS、iSCSI、FCPまたはLocal)のデータ記憶域ドメインを設定します。

論理ネットワークは、データ・センターの初期化には必須ではありませんが、Oracle Linux Virtualization Managerがデータ・センターのすべてのコンポーネントと通信するには必須です。 論理ネットワークは、仮想マシンがホストおよびストレージと通信する場合、クライアントを仮想マシン・リソースに接続する場合、およびクラスタ内のホスト間で仮想マシンを移行する場合にも使用されます。

図4-1 データ・センター


1つのエンジンが3つのデータ・センターに接続し、それぞれが3つのクラスタを持ちます。 データ・センターは単一のストレージ・サーバーに接続します。

クラスタ

クラスタは、仮想マシンのコレクションを実行できるOracle Linux KVMホストの1つ以上の論理グループで構成されます。 クラスタ内のKVMホストには、同じタイプのCPU (IntelまたはAMD)が必要です。

環境内の各クラスタは1つのデータ・センターに属し、各KVMホストは1つのクラスタに属している必要があります。 インストール時、Defaultデータ・センターにデフォルトのクラスタが作成されます。 詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」の「クラスタ」を参照してください。

仮想マシンは、クラスタ内の任意のKVMホストに動的に割り当てられ、クラスタ上で定義されているポリシーや仮想マシンの設定に従って、これらの間で移行できます。 クラスタは、電力および負荷分散ポリシーを定義できる最上位レベルです。 仮想マシンはクラスタ内の特定のホストにバインドされていないため、1つ以上のホストが使用できなくても、必ず仮想マシンが起動します。

図4-2 単一クラスタ


それぞれがストレージ・ドメインに接続された3つのVDSMを持つクラスタに接続された単一のエンジン。

図4-3 複数のクラスタ


3つのクラスタを持つデータ・センターに接続された単一エンジン。

ホスト

Oracle Linux Virtualization Managerでは、ベア・メタル(物理)サーバーにOracle Linuxをインストールし、Unbreakable Enterprise Kernelを活用して、サーバーをKVMハイパーバイザとして使用できるようにします。 サーバー上でハイパーバイザを実行する場合、仮想マシンをホストできることを意味するホストと呼ばれます。

エンジン・ホストは個別の物理ホストであり、Oracle Linux Virtualization Manager環境を管理するための管理ツールが提供されます。 環境内のすべてのホストは、Oracle Linuxホストであるエンジンを実行しているホストを除き、Oracle Linux KVMホストである必要があります。 管理ポータルを使用すると、KVMホストをインストール、構成および管理できます。

Oracle Linux Virtualization Managerでは数多くのOracle Linux KVMホストを管理でき、各ホストは同時に複数の仮想マシンを実行できます。 各仮想マシンは、KVMホスト上で個別のLinuxプロセスおよびスレッドとして実行されます。

Virtual Desktop and Server Manager (VDSM)サービスは、KVMホスト上でデーモンとして動作し、エンジンと通信して次のことを行うホスト・エージェントです。

  • 物理リソース(ストレージ、メモリーおよびネットワークなど)を管理および監視します。
  • ホストで実行されている仮想マシンを管理および監視します。
  • 統計を収集し、ログを収集します。

エンジン・ホストおよび仮想マシンの要件の詳細は、「要件とスケーラビリティの制限」要件およびスケーラビリティ制限を参照してください。

詳細は、「ホスト・アーキテクチャ」および「Oracle Linux Virtualization Manager: スタート・ガイド」のKVMホストの追加を参照してください。

仮想マシン

仮想マシンは特定の仕様に合わせて作成したり、仮想マシン・プール内の既存のテンプレートからクローニングしたりできます。 詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」の「新しい仮想マシンの作成」および「テンプレートの作成」を参照してください。 また、Open Virtual Appliance (OVA)ファイルをデータ・センター内の任意のホストから使用する環境にインポートすることもできます。 詳細は、「oVirtドキュメント」の『仮想マシン管理ガイド』(oVirt)を参照してください。

  • 仮想マシン・プールは、すべての同じテンプレートのクローンであるオンデマンド仮想マシンのグループです。 これらは指定されたグループのすべてのユーザーが使用できます。

    VMポータルからアクセスした場合、プール内の仮想マシンはステートレスとなり、データは再起動間で永続的ではありません。 プール内の各仮想マシンは同じバッキング読取り専用イメージを使用し、一時的なcopy-on-writeイメージを使用して、変更されたデータおよび新しく生成されたデータを保持します。 仮想マシンは、プールから割り当てられるたびにベース状態に割り当てられます。 プールから仮想マシンにアクセスして使用する権限を付与されているユーザーは、リクエストのキュー内での位置に基づいて、使用可能な仮想マシンを受け取ります。

    管理ポータルからアクセスした場合、プール内の仮想マシンはステートレスではないため、管理者は必要に応じてディスクを変更できます。

  • ゲスト・エージェントおよびドライバには、リソース使用状況の監視、管理ポータルからの仮想マシンの停止と再起動などの仮想マシンのための機能があります。

    重要:

    「Oracle Linux Virtualization Manager: リリース・ノート」「既知の問題」セクションの「非推奨のゲスト・エージェントによるWindows仮想マシンの機能低下」を参照してください。
  • スナップショットによって、特定の時点で使用可能なすべてのディスクの仮想マシンのオペレーティング・システムとアプリケーションが取得されます。 スナップショットを使用して、仮想マシンを前の状態にリストアします。 詳細は、次の章を参照してください。
  • テンプレートは仮想マシンのコピーであり、これを使用すると、後続の類似する仮想マシンを簡単に繰り返し作成できます。 テンプレートは、ソフトウェアの構成、ハードウェアの構成、およびテンプレートの基となる仮想マシンにインストールされたソフトウェア(ソース仮想マシンと呼ばれる)を取得します。

    テンプレートに基づいて作成された仮想マシンは、元の仮想マシンと同じNICタイプおよびドライバを使用しますが、個別の一意のMACアドレスが割り当てられます。

 スナップショットを使用する場合の考慮事項

スナップショットは仮想マシンの状態を示す図であり、プライマリ・バックアップ・プロセスでは使用できません。 必要に応じて仮想マシンを特定の時点に戻せるように、スナップショットを取得します。 スナップショットを作成する前に、次の点を考慮してください。

  • データが破損したり、仮想マシンの起動に失敗する可能性があるため、管理ポータルに不正なステータスが表示される仮想マシンを停止または起動しないでください。
  • スナップショットに戻してすぐに不要になった場合は、スナップショットを削除します。
  • クリーン・アップせずに行の複数のスナップショットを取得すると、仮想マシンおよびホストのパフォーマンスに影響する可能性があります。
  • スナップショットを取得すると、仮想マシン・ディスクの新しいコピーが作成されるため、スナップショットへの書込みデータが多いほど、使用時間が長くなります。
  • I/O集中型の仮想マシンの場合、スナップショットを削除すると、仮想マシンの稼働中にスナップショットが削除される(ライブ・マージ)のではなく、仮想マシンの停止中にスナップショットが削除されます(コールド・マージ)。
  • スナップショットを取得する前に、仮想マシンに最新のゲスト・エージェント・パッケージがインストールされていることを確認します。

 仮想マシン・コンソール

仮想マシン・コンソールには、Enterprise LinuxおよびMicrosoft Windowsクライアントの「リモート・ビューア・アプリケーション」 ( virt-viewer)を使用してアクセスします。 リモート・ビューアを使用すると、物理マシンと同様の方法で仮想マシンと対話できます。 詳細は、「コンソール」を参照してください。

リモート・ビューアをダウンロードするには、「Oracle Linux Virtualization Manager: 管理」「クライアント・マシンへのリモート・ビューアのインストール」を参照してください。 リモート・ビューア・アプリケーションをインストールするには、管理者権限が必要です。

高可用性と最適化

クラスタを最適化し、ホストおよび仮想マシンの可用性を高めるようにOracle Linux Virtualization Managerを構成できます。 仮想マシンの実行中に、デバイス(ホットプラグ)を有効化または無効化することもできます。

高可用性および最適化の詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のデプロイメントの最適化を参照してください。

クラスタ

クラスタの作成または編集時に「最適化」タブを使用すると、クラスタのメモリー・ページ共有しきい値を選択し、オプションでクラスタ内のホストでCPUスレッドの処理およびメモリーバルーニングを有効にできます。 利点は次のとおりです。
  • 仮想マシンは、指定されたオーバーコミットしきい値までホストで実行されます。 値が大きいほどCPUの使用量が増加しますが、メモリーが節約されます。
  • ホストでは、CPUコアの合計数がホストのコア数よりも大きい仮想マシンを実行できます。
  • クラスタ内のホストで実行されている仮想マシンに対するメモリー・オーバーコミットメント。
  • Memory Overcommitment Manager (MoM)は、メモリー節約のメリットが得られる場合にKernel Same-page Merging (KSM)を実行します。 KSMを使用するには、クラスタ・レベルで明示的に有効にする必要があります。

MoMのクラスタ最適化を設定することで、仮想マシンごとの保証されるメモリー・サイズを制限して、可能な場合にバルーニングを開始できるようにできます。 バルーニングを実行させるために、仮想マシンには関連するドライバを備えたバルーン・デバイスが必要です。 各仮想マシンには、明確に除去されていないかぎり、バルーン・デバイスが含まれています。 クラスタ内の各ホストは、ステータスが「稼働中」に変わると、バルーン・ポリシー更新を受信します。 必要に応じて、KVMホスト上のバルーン・ポリシーを、ステータスを変更することなく手動で更新できます。

ホスト

予期しないホスト障害が発生したときにクラスタが応答するようにする場合は、フェンシングを構成する必要があります。 フェンシングは、電力節約、負荷分散、および仮想マシンの可用性を実現するために関連するポリシーを適用することで、クラスタ内のホストの高可用性を維持します。 特定のホスト上の高可用性仮想マシンが必要な場合:

  • ホストの電源管理を有効にして構成する必要もあります
  • ホストは、ovirtmgmtネットワーク経由で電源管理インタフェースにアクセスできる必要があります

重要:

電源管理操作の場合、クラスタまたはデータ・センター内の少なくとも2つのKVMホストが「上へ」または「メンテナンス」ステータスである必要があります。

マネージャはフェンス・エージェントと直接通信しません。 代わりに、エンジンはプロキシを使用して、ホスト電源管理デバイスに電源管理コマンドを送信します。 エンジンはVDSMを使用して電源管理デバイス・アクションを実行するため、環境内の別のホストがフェンシング・プロキシとして使用されます。 次の中から選択できます。

  • フェンシングが必要なホストと同じクラスタ内の任意のホスト。
  • フェンシングが必要なホストと同じデータ・センター内の任意のホスト。

クラスタ内の各KVMホストには、制限されたリソースがあります。 KVMホストが過度に使用される場合、ホストで実行されている仮想マシンに悪影響があります。 過剰な使用を回避または軽減するために、スケジューリング、ロード・バランシングおよび移行ポリシーを使用して、仮想マシンのパフォーマンスを確保できます。 KVMホストが過度に使用されると、仮想マシンはクラスタ内の別のKVMホストに移行されます。

仮想マシン

ホストがクラッシュしたり、非稼働になった場合、高可用性を持つ仮想マシンはクラスタ内の別のホストに自動的に移行および再起動します。 高可用性のために仮想マシンが構成されていない場合、使用可能な別のホストでは再起動されません。 仮想マシンのホストを手動で停止した場合、仮想マシンは別のホストに自動的に移行されません。

ノート:

共有記憶域を使用していて、ホストに障害が発生した場合にライブ・マイグレーションできるように環境を明示的に構成していないかぎり、仮想マシンはライブ・マイグレーションされません。 省電力や配布などのポリシーやメンテナンス・イベントにより、仮想マシンのライブ・マイグレーションがトリガーされます。

仮想マシンの作成または編集時に「リソース割当て」タブを使用すると、次の操作を実行できます。

  • 仮想マシンがそのホストでアクセスできる処理機能の最大量を設定します。
  • 特定の物理CPUに仮想CPUを固定します。
  • 仮想マシンのメモリー容量を保証します。
  • 仮想マシンのメモリー・バルーン・デバイスを有効にします。 この機能を有効にするには、クラスタに対してメモリー・バルーン最適化も有効にする必要があります。
  • VirtIOインタフェースを持つディスクの速度を改善するには、仮想マシンの他の関数とは別のスレッドに固定します。

KVMホストがメンテナンス・モードになると、すべての仮想マシンがクラスタ内の他のサーバーに移行されます。 これは、計画メンテナンス期間中は仮想マシンの停止時間がないことを意味します。

仮想マシンが予期せず終了した場合、同じKVMホストまたはクラスタ内の別のホスト上で自動的に再起動されます。 これは、ハードウェア障害を検出するためのホストおよび記憶域の監視により実現されます。 高可用性を持つように仮想マシンを構成し、そのホストで障害が発生すると、仮想マシンはクラスタ内の別のKVMホストで自動的に再起動します。

ポリシー

ロード・バランシング・ポリシー、スケジューリング・ポリシーおよびリジリエンス・ポリシーを使用すると、3つの優先度レベルのハードウェア障害が発生した場合に、重要な仮想マシンを別のKVMホストで再起動できます。

スケジューリング・ポリシーを使用すると、使用可能なホスト間での仮想マシンの使用量と配分を指定できます。 スケジューリング・ポリシーを定義して、クラスタ内のホスト全体の自動ロード・バランシングを有効化できます。 スケジューリング・ポリシーに関係なく、仮想マシンはCPUが過負荷状態のホスト上で起動しません。 デフォルトでは、5分間負荷が80%を超える場合、ホストのCPUは過負荷であるとみなされますが、これらの値はスケジューリング・ポリシーを使用して変更できます。

デフォルトのスケジューリング・ポリシーは5つあります:

  • Evenly_Distributed - メモリーおよびCPUの処理負荷をクラスタ内のすべてのホストに均等に分散します。

    ノート:

    すべての仮想マシンには、最新のqemu-guest-agentがインストールされ、そのサービスが実行されている必要があります。
  • Cluster_Maintenance - クラスタ内のメンテナンス・タスクのアクティビティは制限されています。
  • Power_Saving - 使用可能なホストのサブセットにメモリーおよびCPU処理負荷を分散することで、使用率の低いホストの消費電力を削減します。
  • VM_Evenly_Distributed - 仮想マシンをホスト間で均等に分散します。
  • なし

移行ポリシーを使用すると、KVMホストの障害が発生した場合に仮想マシンをライブ・マイグレーションする条件を定義できます。 これらの条件には、移行中に仮想マシンを停止できる時間、使用するネットワーク帯域幅、および仮想マシンの優先順位が含まれます。

リジリエンス・ポリシーにより、仮想マシンを移行で優先順位付けする方法を定義できます。 すべての仮想マシンが移行されるか、または高可用性仮想マシンのみが移行されるようにポリシーを構成できます。これは、ホストの過負荷を防ぐのに役立ちます。

ポリシーの詳細は、「oVirtドキュメント」「管理ガイド」を参照してください。

ネットワーク

ネットワーク作成に関する一般的な推奨事項の概要を次に示します。

  • ボンド・ネットワーク・インタフェースを(特に本番ホストで)使用します
  • VLANを使用して異なるトラフィック・タイプを分離します
  • 管理トラフィック用に1 GbEネットワークを使用します
  • 仮想マシンとイーサネット・ベースのストレージ用に10 GbE、25 GbE、40 GbE、または100 GbEを使用します
  • ストレージの使用のために物理インタフェースをホストに追加する場合は、VLANが物理インタフェースに直接割り当てられるように「VMネットワーク」のチェックを外します

Oracle Linux Virtualization ManagerホストおよびすべてのOracle Linux KVMホストには、完全修飾ドメイン名(FQDN)とフォワードおよびリバース名の解決が必要です。 DNSを使用することをお薦めします。 または、名前解決に/etc/hostsファイルを使用することもできますが、これにはさらに多くの作業が必要で、エラーが発生しやすくなります。

名前解決に使用するすべてのDNSサービスは、環境の外部にホストする必要があります。

 論理ネットワーク

Oracle Linux Virtualization Managerでは、ネットワーク・インタフェース・コントローラ(NIC)が管理ネットワーク上にあることを示す場合など、特定の目的でOracle Linux KVMホストのネットワーク接続を確保するために必要なリソースを表す論理ネットワークを構成します。

データ・センターの論理ネットワークを定義し、ネットワークを1つ以上のクラスタに適用した後、ホストの物理インタフェースに論理ネットワークを割り当てて、ホストを構成します。 クラスタ内のすべてのホストでネットワークを実装すると、ネットワークが動作するようになります。 これらの操作はすべて管理ポータルから実行します。

クラスタ・レベルで、1つ以上のネットワーク・ロールを論理ネットワークに割り当て、その目的を指定できます。

  • 管理ネットワークは、Oracle Linux Virtualization Managerとホスト間の通信に使用されます。
  • VMネットワークは仮想マシン通信に使用され、仮想マシンの仮想NICはVMネットワークにアタッチされます。 詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」の論理ネットワークの作成を参照してください。
  • ディスプレイ・ネットワークは、VNCまたはRDPプロトコルを使用して、クライアントを仮想マシンのグラフィカル・コンソールに接続する際に使用されます。
  • 移行ネットワークは、仮想マシンをクラスタ内のホスト間で移行するのに使用されます。

デフォルトでは、ovirtmgmtという名前の単一の論理ネットワークが作成され、データ・センターのすべてのネットワーク通信に使用されます。 追加の論理ネットワークを定義して適用することによって、必要に応じてネットワーク・トラフィックを分離します。

1つの論理ネットワークが、ホストのデフォルト・ルートとして構成されます。

論理ネットワークは、必要なネットワークとしてマークできます。 必要なネットワークが機能しなくなった場合、ネットワークに関連付けられているKVMホストは動作しなくなります。

VMネットワーク以外の論理ネットワークの場合は、物理ネットワーク・インタフェース、VLANインタフェースまたはボンドを使用して、ホストをネットワークに直接接続します。

VMネットワークでは、論理ネットワークごとにブリッジがホストに作成されます。 仮想マシンのVNICが必要に応じてブリッジに接続されます。 ブリッジは、物理ネットワーク・インタフェース、VLANインタフェースまたはボンドを使用してネットワークに接続されます。

図4-4 ネットワークのブリッジ


前のテキストで説明したように、VMネットワーク用のOracle Linux KVMホストで作成されたブリッジを表示します。

次に示すホスト上のネットワーク構成操作のほとんどは、管理ポータルから実行できます。

  • ホストNICの論理ネットワークへの割り当て
  • NICのブート・プロトコル、IP設定、およびDNS設定の構成
  • KVMホスト上でのボンドおよびVLANインタフェースの作成

KVMホストおよび論理ネットワークが多数ある場合は、ネットワーク・ラベルを使用することで管理を簡素化できます。 ラベルは論理ネットワークおよびホスト・インタフェースに適用できます。 ネットワークでラベルを設定する場合、同じラベルを持つホストNICにネットワークをデプロイできます。 これには、ホストNICがDHCPに対して構成されている必要があります。

 VLAN

仮想ローカル領域ネットワーク(VLAN)により、ホストおよび仮想マシンは、LAN上の実際の物理的な場所に関係なく通信できます。

VLANによって、ネットワーク・トラフィックを分離することでセキュリティを改善できます。 同じVLANのデバイス間のブロードキャストは、別のVLANの他のデバイスには、それらが同じスイッチ上に存在する場合でも認識されません。

また、VLANはホスト上の物理NIC不足を補うのにも役立ちます。 ホストまたは仮想マシンは、単一の物理NICまたはボンドを使用して異なるVLANに接続できます。 これは、VLANインタフェースを使用して実装されます。

VLANはIDによって識別されます。 ホストのNICまたはボンドにアタッチされたVLANインタフェースには、VLAN IDが割り当てられ、VLANのトラフィックを処理します。 トラフィックがVLANインタフェースを介してルーティングされる場合、そのインタフェースに対して構成されたVLAN IDが自動的にタグ付けされ、VLANインタフェースがアタッチされるNICまたはボンド経由でルーティングされます。

スイッチはVLAN IDを使用して、同じ物理リンク上で動作する異なるVLAN間のトラフィックを分離します。 このように、VLANは個別の物理接続とまったく同じように機能します。

論理ネットワークをサポートするために必要なVLANを構成してから、VLANを使用する必要があります。 通常、これはスイッチ・トランクを使用して行います。 トランクでは、スイッチのポート上で複数のVLANトラフィックが実現されるようにこれらのポートを構成して、パケットが最終的な宛先に正しく転送されるようにします。 必要な構成は、使用するスイッチによって異なります。

論理ネットワークを作成するとき、ネットワークにVLAN IDを割り当てることができます。 ホストNICまたはボンドをネットワークに割り当てると、VLANインタフェースがホスト上に自動的に作成され、選択したデバイスにアタッチされます。

図4-5 VLANs


前述のテキストで説明した、論理ネットワークでのVLANの使用を示す図。

図4-6 ネットワーク・ボンドを介したVLAN


前述のテキストで説明した、ネットワーク・ボンド経由のVLANを示す図。

仮想NIC

仮想マシンは、仮想ネットワーク・インタフェース・コントローラ(VNIC)を使用して論理ネットワークに接続します。

VNICは、常にKVMホスト上のブリッジにアタッチされます。 ブリッジは、VNICが物理ネットワーク接続を共有し、論理ネットワーク上で個別の物理デバイスとして表示できるようにする、ソフトウェア・ネットワーク・デバイスです。

Oracle Linux Virtualization ManagerはMACアドレスをVNICに自動的に割り当てます。 各MACアドレスは、1つのVNICに対応しています。 MACアドレスはネットワーク上で一意である必要があるため、MACアドレスは、MACアドレス・プールと呼ばれる事前定義済のアドレス範囲から割り当てられます。 MACアドレス・プールは、クラスタに対して定義されます。

仮想マシンは、それらのVNICによって論理ネットワークに接続されます。 各VNICのIPアドレスは、仮想マシンのオペレーティング・システムで利用できるツールを使用して、DHCPによって、または静的に個別に設定できます。 DHCPを使用するには、論理ネットワークにDHCPサーバーを構成する必要があります。

仮想マシンは、仮想ネットワーク上の他のマシンと通信でき、論理ネットワークの構成によってはインターネットなどのパブリック・ネットワークと通信できます。

詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」の「仮想マシンのvNICプロファイルのカスタマイズ」を参照してください。

 ボンド

ボンドは複数のNICを1つのインタフェースに結合します。 結合されたネットワーク・インタフェースではボンドに含まれているすべてのNICの伝送機能が組み合さって、単一のネットワーク・インタフェースとして機能し、転送速度を向上させることができます。 ボンド自体の動作に障害が発生するには、ボンド内のすべてのネットワーク・インタフェース・カードに障害が発生する必要があるため、ボンディングによってフォルト・トレランスが向上します。

4つの異なる結合モードがあります:

  • モード1 - Active-Backup
  • モード2 - ロード・バランスXORポリシー
  • モード3 - ブロードキャスト
  • モード4 (デフォルト) - 動的リンク・アグリゲーションIEEE 802.3ad

ボンディング・モード2および4では、物理スイッチでそれぞれ静的エーテル・チャネルを有効にし(LACP交渉ではなく)、LACP交渉エーテル・チャネルを有効にする必要があります。

図4-7 ネットワーク・ボンド


前述のテキストで説明した、NICを単一のインタフェースに結合するボンドを示す図。

 MACアドレス・プール

MACアドレス・プールは、各クラスタに割り当てられたMACアドレスの1つの(または複数の)範囲を定義します。 クラスタごとに1つのMACアドレス・プールが指定されます。 MACアドレス・プールを使用することで、ManagerはMACアドレスを自動的に生成し、新しい仮想ネットワーク・デバイスに割り当てることができ、このことはMACアドレスの重複を防ぐのに役立ちます。 MACアドレス・プールは、クラスタに関連するすべてのMACアドレスが、割り当てられたMACアドレス・プールの範囲内である場合にメモリー効率が向上します。

同じMACアドレス・プールを複数のクラスタで共有できますが、各クラスタには単一のMACアドレス・プールが割り当てられます。 デフォルトのMACアドレス・プールはManagerによって作成され、別のMACアドレス・プールが割り当てられていない場合に使用されます。

ノート:

複数のクラスタでネットワークを共有している場合、デフォルトのMACアドレス・プールのみに依存しないでください。各クラスタ内の仮想マシンが同じ範囲のMACアドレスを使用しようとするため、競合が発生する可能性があります。 MACアドレスの競合を回避するには、MACアドレス・プールの範囲をチェックして、各クラスタに一意のMACアドレス範囲が割り当てられるようにします。

MACアドレス・プールは、プールに返された最後のアドレスの後の、次に使用可能なMACアドレスを割り当てます。 範囲にアドレスがもう残っていない場合、範囲の最初から検索が再度開始されます。 1つのMACアドレス・プール内に、使用可能なMACアドレスを持つ複数のMACアドレス範囲が定義されている場合、それらの範囲はMACアドレスが選択されるときと同様の方法で、着信要求に交互に応じます。

ストレージ

Oracle Linux Virtualization Managerでは、仮想マシンのディスク・イメージ、ISOファイルおよびスナップショットに対して集中管理された記憶域システムを使用します。 NFS (Network File System)、iSCSI (Internet Small Computer System Interface)、FCP (Fibre Channel Protocol)またはGluster FS記憶域を使用できます。 ホストに直接アタッチされるローカル記憶域を構成することもできます。 詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のストレージを参照してください。

記憶域ドメインがアタッチされてアクティブ化されないかぎり、データ・センターを初期化できません。

ルーティングに関する問題を回避するために、ストレージを使用するOracle Linux KVMホストと同じサブネットにストレージを配置する必要があります。

ストレージの作成、構成、アタッチおよび維持が必要なため、記憶域タイプとその使用方法をよく理解しておいてください。 詳細は、記憶域アレイの製造元のガイドを参照してください。

 記憶域ドメイン

記憶域ドメインは、共通の記憶域インタフェースを持つイメージの集まりです。 記憶域ドメインには、テンプレート、仮想マシン、仮想マシンのスナップショット、またはISOファイルの完全なイメージが含まれています。 Oracle Linux Virtualization Managerでは、ブロック・デバイス(SAN - iSCSIまたはFCP)またはファイル・システム(NAS - NFSまたはGluster)である記憶域ドメインをサポートしています。

NFS上またはGluster上では、すべての仮想ディスク、テンプレートおよびスナップショットはファイルです。 SAN (iSCSI/FCP)上では、各仮想ディスク、テンプレートまたはスナップショットは論理ボリュームです。

同じ記憶域ドメインを共有する仮想マシンは、同じクラスタに属するホスト間で移行できます。

ストレージはデータ・ドメインとも呼ばれ、仮想ハード・ディスク、スナップショット、ISOファイルおよび仮想マシンとテンプレート用のOVF (Open Virtualization Format)ファイルを格納するために使用されます。 すべてのデータ・センターには、少なくとも1つのデータ・ドメインが必要です。 データ・ドメインはデータ・センター間で共有できません。

ノート:

現在、管理ポータルには、エクスポート・ドメインまたはISOドメインである記憶域ドメインを作成するためのオプションが用意されています。 これらのオプションは非推奨です。

記憶域ドメインをデータ・センターから切り離すと、関連付けは停止しますが、その記憶域ドメインは環境から削除されません。 デタッチされた記憶域ドメインを別のデータ・センターにアタッチできます。 また、仮想マシンやテンプレートなどのデータは、記憶域ドメインにアタッチされたままになります。

 記憶域プール・マネージャ

記憶域プール・マネージャ(SPM)は、データ・センター内のホストの1つに割り当てられる管理ロールで、これによりデータ・センターの記憶域ドメインを管理できます。 データ・センター内のホストは、エンジンによって割り当てられるSPMエンティティを実行できます。 SPMは、記憶域ドメイン全体でメタデータを調整することで、ストレージへのアクセスを制御します。 これには、仮想ディスク(イメージ)、スナップショットおよびテンプレートの作成、削除および操作、スパース・ブロック・デバイスのストレージの割当て(SAN上)が含まれます。

SPMとして稼働しているホストは、引き続き仮想リソースをホストできます。 ホストのSPM優先度設定を使用すると、SPMロールが割り当てられるホストに優先順位を設定できます。 SPMロールではホストの使用可能なリソースの一部が使用されるため、リソースを提供できるホストに優先順位を付けることが重要です。

SPMは常に使用可能である必要があるため、SPMホストが使用不可になった場合、エンジンはSPMロールを別のホストに割り当てます。 SPMの優先度が高いホストには、SPMの優先度が低いホストより前にSPMロールが割り当てられます。

 仮想マシン記憶域

記憶域プール・マネージャ(SPM)は、仮想ディスク、スナップショットおよびテンプレートの作成および削除を担当します。 さらに、スパース・ブロック・デバイス用のストレージを割り当てます。

  • NFSまたはローカル記憶域を使用している場合、SPMはデフォルトでシン・プロビジョニング済仮想ディスクを作成します。
  • ISCSIストレージまたはその他のブロックベースのデバイスを使用している場合、SPMに論理ユニット番号(LUN)が提供されます。 次に、仮想マシン・ディスクとして使用するLUNおよび論理ボリュームの上部にボリューム・グループを作成し、SPMはデフォルトで領域を事前に割り当てます。
  • 仮想ディスクがシンプロビジョニングされる場合、QCOW2形式の1 GB論理ボリュームが作成されます。 I/Oの要件が低い仮想マシンでは、シン・プロビジョニングを使用します。
  • 仮想マシンのホストは、仮想ディスクに使用される論理ボリュームを継続的に監視します。 ディスク使用量がしきい値に近づいたときに、ホストがSPMに通知し、論理ボリュームを1 GB拡大するようにしきい値を設定できます。
  • プール内のストレージが使用し尽くされ始めると、新しいLUNをボリューム・グループに追加できます。 SPMは、追加ストレージを必要とする論理ボリュームに追加ストレージを自動的に配布します。
  • 仮想ディスクが事前に割り当てられる場合、GB単位でサイズ指定した論理ボリュームと、RAW形式の仮想ディスクが作成されます。 高レベルのI/Oの仮想マシンに事前割当て済ディスクを使用します。
  • 事前割当て済のQCOW2仮想ディスクを使用し、増分バックアップを有効にすると、ディスク・サイズが監視されます。 実際のサイズは、仮想サイズよりも1.1倍大きくできます。 したがって、記憶域を割り当てるときは、10%の拡張によって容量が枯渇しないような方法でディスク容量を割り当てます。
  • 1つのアプリケーションが複数の仮想マシンの間でストレージを共有させる必要がある場合は、複数の仮想マシンに同時にアタッチできる、共有可能な仮想ディスクを使用してください。

    QCOW2形式の仮想ディスクは共有できません。 共有可能とマークできないスナップショットがある共有ディスクおよび仮想ディスクのスナップショットは取得できません。 共有ディスクはライブ・マイグレーションできません。

    仮想マシンがクラスタ対応でない場合は、データの破損を避けるために、共有可能なディスクを読取り専用としてマークします。

  • 直接LUNを使用すると、仮想マシンがホスト・バス・アダプタ(HBA)上のRAWブロックベースのストレージ・デバイスに直接アクセスできるようになります。 直接LUNをホストにマッピングすると、ストレージは仮想マシンに対するファイルベースのストレージとしてエミュレートされます。 これにより、ブロックベースのストレージLUNへの直接アクセス権が仮想マシンに付与されるため、仮想マシンとそのデータの間の抽象レイヤーが除去されます。

 記憶域リース

記憶域ドメインをOracle Linux Virtualization Managerに追加すると、xleasesという特殊なボリュームが作成されます。 仮想マシンはこの特殊なボリューム上にリースを設定できるため、元のホストが停電した場合でも、仮想マシンは別のホスト上で起動できます。

VMリースを保持するための記憶域ドメインを選択すると、仮想マシン用の記憶域リースが自動的に構成されます。 (「Oracle Linux Virtualization Manager: 管理ガイド」の「高可用性仮想マシンの構成」を参照してください。) これにより、新しいリースの作成要求がエンジンにトリガーされ、エンジンは要求をSPMに送信します。 SPMは、xreleasesボリュームの仮想マシン用にリースおよびリースIDを作成します。 VDSMは、仮想ディスク上の排他ロックを取得するために使用されるsanlockを作成します。

リースIDおよびその他の情報は、SPMからエンジンに送信されます。 次に、エンジンは仮想マシンのデバイス・リストをリース情報で更新します。

ローカル記憶域

ローカル記憶域は、ローカル物理ディスクやローカルにアタッチされたSANなど、Oracle Linux KVMホストに直接アタッチされる記憶域です。 KVMホストがローカル記憶域を使用するように構成されている場合、そのホストが唯一のホストであるクラスタに、ローカル記憶域が自動的に追加されます。 これは、複数のホストを持つクラスタは、すべてのホストからアクセス可能な共有記憶域ドメインを持つ必要があるためです。

ローカル記憶域を使用すると、ライブ・マイグレーション、スケジューリング、フェンシングなどの機能は使用できません。

詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」の「ローカル記憶域を使用するためのKVMホストの構成」を参照してください。

システムのバックアップとリカバリ

engine-backupツールを使用して、Oracle Linux Virtualization Managerの定期的なバックアップを実行します。 このツールは、engineデータベースおよび構成ファイルを単一のファイルにバックアップし、ovirt-engineサービスを中断することなく実行できます。

また、engine-backupツールを使用してバックアップをリストアします。 ただし、リストア先に応じて必要なステップが増える場合もあります。 たとえば、engine-backupツールを使用して、Oracle Linux Virtualization Managerの新規インストール、Oracle Linux Virtualization Managerの既存のインストールに加えて、ローカルまたはリモート・データベースを使用してバックアップをリストアできます。

Oracle Linux Virtualization Managerの新規インストールにバックアップをリストアする場合、engine-setupコマンドを実行してManagerを構成することはありません。

また、プライマリ・データ・ドメイン内のデータが破損した場合、データ・センター・リカバリを使用することもできます。 これにより、データ・センターのプライマリ・データ・ドメインを新しいプライマリ・データ・ドメインに置換できます。

データ・センターを再初期化すると、クラスタ、ホストおよび記憶域ドメインを含む、データ・センターに関連付けられているその他すべてのリソースをリストアできます。 バックアップやエクスポートされた仮想マシンまたはテンプレートを新しいプライマリ・データ・ドメインにインポートできます。

詳細については、「Oracle Linux Virtualization Manager: 管理ガイド」のバックアップとリストアを参照してください。

ユーザー、ロールおよび権限

Oracle Linux Virtualization Managerには、ローカル・ドメインと外部ドメインという2つのタイプのユーザー・ドメインがあります。 Managerのインストール時に、internalドメインと呼ばれるデフォルトのローカル・ドメインが、デフォルトのadmin@internalユーザーで作成されます。 このアカウントは、環境の最初の構成時およびトラブルシューティングのために使用することを目的としています。

ovirt-aaa-jdbc-toolコマンド・ユーティリティを使用して、internalドメインに追加ユーザーを作成できます。 ユーザーの作成の詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のコマンド行からのユーザーおよびグループ・アカウントの管理を参照してください。

ユーザー・プロパティは、ユーザーに割り当てられたロールと権限で構成されます。 プラットフォーム内のすべてのアクションおよびオブジェクトに対するセキュリティ・ロールは、きめ細かく、継承可能であり、マルチレベルの管理に対応します。

ロールは管理ポータルで定義される権限のセットであり、環境内のリソースに対する権限を指定するために使用されます。 ロールには次の2種類が存在します。

  • 「管理者ロール」 - 管理ポータルを使用して、物理リソースおよび仮想リソースの管理権限を付与します。 このグループ内のロールの例として、SuperUser、ClusterAdminおよびDataCenterAdminがあります。

  • 「ユーザー・ロール」 - ユーザーに表示されるものをフィルタリングすることで、VM Portalを使用して仮想マシンおよびテンプレートを管理およびアクセスする権限を付与します。 個々のリソースまたはオブジェクトのレベルに対してロールをユーザーに割り当てることができます。 このグループ内のロールの例として、UserRole、PowerUserRoleおよびUserVmManagerがあります。

環境内のユーザーのロールに適用できる特定の権限を持つ新しいロールを作成できます。 特定のユーザーに割り当てられたロールから、リソースに対する特定の権限を削除することもできます。

また、外部ディレクトリ・サーバーを使用して、ユーザー・アカウントおよび認証サービスを提供することもできます。 Active Directory、OpenLDAPおよび389dsを使用できます。 ovirt-engine-extension-aaa-ldap-setupコマンドを使用して、これらのディレクトリへの接続を構成します。

ノート:

外部ディレクトリ・サーバーをアタッチし、ディレクトリ・ユーザーを追加して、適切なロールと権限を割り当てた後、admin@internalユーザーが不要な場合は無効化できます。 詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」の「ユーザー・アカウントの無効化」を参照してください。

ユーザー、ロールおよび権限の詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のグローバル構成を参照してください。

システムの状態および履歴

Oracle Linux Virtualization Managerをインストールおよび構成するとき、エンジンおよびデータ・ウェアハウスPostgreSQLデータベースをインストールして構成するように求めるプロンプトが表示されます。 「Oracle Linux Virtualization Manager: スタート・ガイド」のエンジン構成オプションを参照してください。

  • エンジン・データベース(engine)には、Oracle Linux Virtualization Manager環境の状態に関する情報と、その構成およびパフォーマンスが格納されます。
  • データ・ウェアハウス・データベースは、データ・センター、クラスタおよびホストの履歴構成情報および統計メトリックを任意のアプリケーションで取得するために使用できる管理履歴データベース(ovirt_engine_history)です。

データ・ウェアハウス・サービス(ovirt-engine-dwd)は、engineデータベースからデータを抽出して、ovirt_engine_historyデータベースにロードします。 これは一般的にETL(抽出、変換、ロード)と呼ばれます。

履歴データベースおよびエンジン・データベースはどちらも、Managerホストの負荷を軽減するためにリモート・ホストで実行できます。 これらのデータベースをリモート・ホストで実行することは、テクノロジ・プレビュー機能です。「Oracle Linux Virtualization Manager: リリース・ノート」の「テクノロジ・プレビュー」を参照してください。

詳細は、「データ・ウェアハウスおよびデータベース」を参照してください。

イベント・ロギングおよび通知

Oracle Linux Virtualization Managerは、次のログ・ファイルにイベントを取得します。

  • /var/log/ovirt-engine/engine.logには、すべてのOracle Linux Virtualization Manager UIクラッシュ、Active Directoryルックアップ、データベースの問題およびその他のイベントが含まれます。
  • /var/log/vdsm/vdsm.logは、仮想化host(s)上のエンジンのエージェントであるVDSMのログ・ファイルで、ホスト関連のイベントが含まれます。

管理ポータル内で、「通知ドロワー」に「アラート」と「イベント」を表示することもできます。これらには、右上隅にあるベル・アイコンをクリックしてアクセスできます。

ovirt-log-collectorツールを使用すると、環境全体から関連するログを収集できます。 このツールを使用するには、ルート・ユーザーとしてOracle Linux Virtualization Managerホストにログインし、管理資格証明で管理ポータルにログインする必要があります。

このツールでは、Managerホスト、Managerホストが管理するOracle Linux KVMホストおよびデータベースからすべてのログが収集されます。

Oracle Linux Virtualization Managerには、特定のイベントが発生した場合に指定されたユーザーに電子メールで通知するようにエンジンを構成したり、Simple Network Management Protocol (SNMP)トラップをシステム・イベント情報と一緒に1つ以上の外部SNMPマネージャに送信して仮想化環境をモニターしたりできる、イベント通知サービスが用意されています。

イベント通知の構成の詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のイベント通知の使用を参照してください。

Grafanaを使用したデータ視覚化

Grafanaは、データ・ウェアハウス・データベース(ovirt_engine_historyデータベース)から収集されたデータを表示するために使用されるwebベースのツールです。 エンジンからのデータは1分ごとに収集され、時間単位および日単位の集計で集計されます。 データ保存は、エンジン設定時にデータ・ウェアハウス構成のスケール設定で定義されます。 サンプルのスケーリングは、次のように設定できます:

  • 「基本」 (デフォルト) - 24時間保存されたサンプル・データ、1か月保存された1時間ごとのデータおよび日次データ。日次集計は保存されません。

  • 「完全」 (推奨)- 24時間保存されたデータ、2か月間保存された時間データ、および5年間保存された日次集計をサンプリングします。

    ノート:

    フル・サンプル・スケーリングでは、データ・ウェアハウスを別の仮想マシンに移行する必要がある場合があります。 詳細については、「oVirtデータ・ウェアハウス・ガイド」を参照してください。

Grafanaおよびデフォルト・ダッシュボードのOracle Linux Virtualization Managerの構成の詳細は、「Oracle Linux Virtualization Manager: 管理ガイド」のGrafanaの使用を参照してください。

Grafanaの使用方法の詳細は、「Grafanaサイト」を参照してください。

デフォルトのGrafanaダッシュボード

次のダッシュボードは、データ・センター、クラスタ、ホストおよび仮想マシン・データをレポートするための初期Grafana設定でデフォルトで使用できます。

エグゼクティブ

  • システム

    最新の構成に従って、システム内のホストおよびストレージ・ドメインのリソース使用率および稼働時間。

  • データ・センター

    最新の構成に従って、選択したデータ・センター内のクラスタ、ホストおよびストレージ・ドメインのリソース使用率、ピークおよびアップ・タイム。

  • クラスタ

    最新の構成に従って、選択したクラスタ内のホストおよび仮想マシンのリソース使用率、ピーク、オーバー・コミットおよびアップ・タイム。

  • ホスト

    選択した期間における選択したホストの最新および履歴構成の詳細およびリソース使用状況メトリック。

  • 仮想マシン

    選択した期間における選択した仮想マシンの最新および履歴構成の詳細およびリソース使用状況メトリック。

  • エグゼクティブ

    選択した期間における、選択したクラスタ内のホストおよび仮想マシンのユーザー・リソース使用率およびオペレーティング・システム数。

インベントリ

  • インベントリ

    最新の構成に従って、選択したデータ・センターのホスト、仮想マシンおよび実行中の仮想マシンの数、リソース使用率およびオーバー・コミット率。

  • ホスト・インベントリ

    最新の構成に従って、選択したホストのFQDN、VDSMバージョン、オペレーティング・システム、CPUモデル、CPUコア、メモリー・サイズ、作成日、削除日、およびハードウェアの詳細。

  • ストレージ・ドメインのインベントリ

    選択した期間における、選択したストレージ・ドメインのドメイン・タイプ、ストレージ・タイプ、使用可能なディスク・サイズ、使用済みディスク・サイズ、合計ディスク・サイズ、作成日、および削除日。

  • 仮想マシンのインベントリ

    最新の構成に従って、選択した仮想マシンのテンプレート名、オペレーティング・システム、CPUコア、メモリー・サイズ、作成日および削除日。

サービス・レベル

  • 稼働時間

    選択した期間における、ホスト、高可用性仮想マシンおよび選択したクラスタ内のすべての仮想マシンの計画停止時間、計画外停止時間および合計時間。

  • ホストの稼働時間

    選択した期間の選択したホストの稼働時間、計画停止時間および計画外停止時間。

  • 仮想マシンの稼働時間

    選択した期間の選択した仮想マシンの稼働時間、計画ダウンタイムおよび計画外ダウンタイム。

    ノート:

    Grafanaでの仮想マシンの稼働時間の計算は、管理ダッシュボードに表示されるものとは異なります。 Grafanaサービス・レベル・ダッシュボードの仮想マシンの稼働時間は、特定の期間に仮想マシンが稼働中ステータスの合計時間です。 値は、データ・ウェアハウス・データベースの履歴/サンプル・データを使用して計算されます。 「管理」ダッシュボードの仮想稼働時間は、仮想マシンが起動されてから「稼働中」ステータスになった時間です。
  • クラスタのサービス品質
    • ホスト

      選択した期間に、選択されたホストがCPUおよびメモリーのしきい値を上回る、または下回った時間。

    • 仮想マシン

      選択した期間に、選択した仮想マシンがCPUおよびメモリーのしきい値の上下で実行された時間。

トレンド

  • トレンド

    選択した期間における選択したクラスタのメモリー別およびCPU別の、最も使用頻度の低い5つの仮想マシンおよびホストの使用率。

  • ホスト・トレンド

    選択した期間における選択したホストのリソース使用量(仮想マシン、CPU、メモリーおよびネットワークTx/Rxの数)。

  • 仮想マシンの傾向

    選択した期間における選択した仮想マシンのリソース使用量(CPU、メモリー、ネットワークTx/Rx、ディスクI/O)。

  • ホストのリソース使用率

    選択した期間における選択したホストの日次および時間当たりのリソース使用量(仮想マシン、CPU、メモリー、ネットワークTx/Rxの数)。

  • 仮想マシンのリソース使用率

    選択した期間の選択した仮想マシンの日次および時間当たりのリソース使用量(CPU、メモリー、ネットワークTx/Rx、ディスクI/O)。