機械翻訳について

3 管理タスク

Oracle Linux Virtualization Managerの一般的な管理タスクは次のとおりです。 これらのトピックの概念についての情報は、『Oracle Linux Virtualization Managerアーキテクチャおよびプランニング・ガイド』を参照してください。

その他の管理タスクについては、oVirtのドキュメントを参照してください。

データ・センター

Oracle Linux Virtualization Managerは、インストール時にデフォルトのデータ・センターを作成します。 デフォルトのデータ・センターを構成するか、適切に名前が付けられた新しいデータ・センターを設定できます。

データ・センターでは、仮想化環境で動作する、機能するクラスタ、ホストおよび記憶域ドメインが必要です。

新規データ・センターの作成

  1. 計算」に移動して、「データ・センター」を選択します。

    データ・センター」ペインが開きます。

  2. 「新規」をクリックします。

  3. 「名前」およびオプションの「説明」を入力します。

  4. 該当するドロップダウン・メニューから、データ・センターの記憶域の「タイプ」、「互換バージョン」および割当てモードを選択します。

  5. OK」をクリックして、データ・センターを作成します。

    新しいデータ・センターが仮想化環境に追加され、「データ・センター - ガイド」メニューが開き、データ・センターが動作するために構成する必要のあるエンティティが順を追って示されます。

    新しいデータ・センターは、クラスタ、ホストおよびストレージ・ドメインが構成されるまで、Uninitialized状態のままです。

    これらのエンティティの構成は、後で構成ボタンをクリックして延期できます。 これらのエンティティの構成を再開するには、個々のデータ・センターを選択して「その他のアクション」をクリックし、ドロップダウン・メニューから「ガイド」を選択します。

クラスタ

Oracle Linux Virtualization Managerは、インストール時にデフォルトのデータ・センターにデフォルトのクラスタを作成します。 デフォルトのクラスタを構成するか、適切な名前の新しいクラスタを設定できます。

新しいクラスタの作成

  1. 計算」に移動して、「クラスタ」を選択します。

    クラスタ」ペインが開きます。

  2. 「新規」をクリックします。

    新規クラスタ」ダイアログ・ボックスが開き、サイドバーで「一般」タブが選択されます。

  3. データ・センター」ドロップダウン・リストから、クラスタに関連付けるデータ・センターを選択します。

  4. 名前」フィールドに、データ・センターの適切な名前を入力します。

  5. 説明」フィールドに、クラスタの適切な説明を入力します。

  6. 管理ネットワーク」ドロップダウン・リストから、管理ネットワーク・ロールを割り当てるネットワークを選択します。

  7. CPUアーキテクチャ」および「CPUタイプ」ドロップダウン・リストから、クラスタに追加されるホストと一致するCPUプロセッサ・ファミリおよび最小CPUプロセッサを選択します。

    IntelとAMDの両方のCPUタイプについて、リストされたCPUモデルは最も古いものから最新のものへと論理的な順序で並べられています。 クラスタに異なるCPUモデルのホストが含まれる場合は、リストから最も古いCPUモデルを選択しすべてのホストがそのクラスタで動作するようにします。

  8. 互換バージョン」ドロップダウン・リストから、クラスタの互換性バージョンを選択します。

    ノート:

    互換性バージョンの詳細については、「アップグレード後のデータ・センターとクラスタの互換バージョンの変更」を参照してください。

  9. スイッチ・タイプ」ドロップダウン・リストから、クラスタで使用するスイッチのタイプを選択します。

    デフォルトでは、ドロップダウン・リストからLinux Bridgeが選択されます。

  10. ファイアウォール・タイプドロップダウン・リストから、クラスタ内のホストのファイアウォール・タイプを選択します。

    使用可能なファイアウォール・タイプは、iptablesまたはfirewalldのいずれかです。 デフォルトでは、ドロップダウン・リストからfirewalldオプションが選択されます。

  11. 仮想サービスの有効化チェック・ボックスがデフォルトで選択されています。 このチェック・ボックスでは、クラスタに仮想マシン・ホストが移入されることを指定します。

  12. (オプション)他のタブを確認して、クラスタをさらに構成します。

    1. サイドバーの「最適化」タブをクリックして、クラスタのメモリー・ページ共有しきい値を選択し、オプションでクラスタ内のホストのCPUスレッド処理およびメモリー・バルーンを有効にします。 「デプロイメントの最適化」を参照してください。

    2. サイドバー・メニューの「移行ポリシー」タブをクリックして、クラスタの仮想マシンの移行ポリシーを定義します。

    3. サイドバーの「スケジュール・ポリシー」タブをクリックして、オプションでスケジュール・ポリシーの構成、スケジューラ最適化設定の構成、クラスタ内のホストに対する信頼できるサービスの有効化、HA予約の有効化、カスタム・シリアル番号ポリシーを追加します。

    4. サイドバーのフェンシング・ポリシータブをクリックして、クラスタ内のフェンシングを有効または無効にし、フェンシング・オプションを選択します。

    5. サイドバーのMACアドレス・プールタブをクリックして、クラスタのデフォルト・プール以外のMACアドレス・プールを指定します。

  13. OK」をクリックして、データ・センターを作成します。

    クラスタが仮想化環境に追加され、「クラスタ - ガイド」メニューが開き、クラスタが動作するために構成する必要のあるエンティティが順を追って示されます。

    これらのエンティティの構成は、後で構成ボタンをクリックして延期できます。 これらのエンティティの構成を再開するには、個々のクラスタを選択して「その他のアクション」をクリックし、ドロップダウン・メニューから「ガイド」を選択します。

ホスト

ホストはハイパーバイザとも呼ばれ、仮想マシンが実行される物理サーバーです。 フル仮想化は、カーネル・ベースの仮想マシン(KVM)と呼ばれるロード可能なLinuxカーネル・モジュールを使用して提供されます。 KVMは、複数の仮想マシンを同時にホストできます。 仮想マシンは、ホスト・マシン上の個々のLinuxプロセスおよびスレッドとして動作し、エンジンによってリモートで管理されます。

ホストのメンテナンス・モードへの移動

ソフトウェア更新のネットワーク構成およびデプロイメントなどの一般的なメンテナンス・タスクを実行するとき、またはリブートやネットワーキングや記憶域の問題など、VDSMが正常に動作を停止する可能性があるイベントの前に、ホストをメンテナンス・モードにします。

ホストをメンテナンス・モードにすると、エンジンは実行中のすべての仮想マシンを代替ホストに移行しようとします。 ライブ移行の標準前提条件が適用されます。特に、移行された仮想マシンを実行するために、クラスタに少なくとも1つのアクティブなホストが存在する必要があります。

ノート:

ホストに固定され、移行できない仮想マシンはシャットダウンされます。 ホストの詳細ビューの「仮想マシン」タブで「ホストに固定」をクリックすると、ホストに固定されている仮想マシンを確認できます。

  1. 「コンピュート」をクリックし、「ホスト」を選択します。

  2. 目的のホストを選択します。

  3. 「管理」をクリックし、「メンテナンス」を選択します。

  4. オプションで、ホストをメンテナンス・モードに移行するための「事由」を入力します。これはログに表示され、ホストが再度アクティブ化されるときに表示されます。 次に、「OK」をクリックします。

    ホスト・メンテナンス事由フィールドは、クラスタ設定で有効になっている場合にのみ表示されます。

  5. オプションで、Glusterをサポートするホストに必要なオプションを選択します。

    デフォルト・チェックを回避するには、「Gluster Quorumの無視」および「自己診断の検証」オプションを選択します。 デフォルトでは、ホストがメンテナンス・モードに移行したときに、Gluster定足数が失われないことを確認します。 また、エンジンは、ホストをメンテナンス・モードに移行することによって影響を受ける自己修復アクティビティが存在しないことも確認します。 Glusterの定足数が失われたり、影響を受ける自己修復アクティビティがある場合、エンジンはホストをメンテナンス・モードにしません。 ホストをメンテナンス・モードにするその他の方法がない場合のみ、このオプションを使用します。

    ホストをメンテナンス・モードに移行中にすべてのGlusterサービスを停止するには、「Glusterサービスの停止」オプションを選択します。

    これらのフィールドは、選択したホストがGlusterをサポートしている場合にのみホスト・メンテナンス・ウィンドウに表示されます。

  6. OKをクリックして、メンテナンス・モードを開始します。

  7. 実行中のすべての仮想マシンが代替ホストに移行されます。 ホストが記憶域プール・マネージャ(SPM)の場合、SPMロールは別のホストに移行されます。 ホストの「ステータス」フィールドがPreparing for Maintenanceに変わり、操作が正常に完了するとMaintenanceに変わります。 ホストがメンテナンス・モードの間、VDSMは停止しません。

    ノート:

    仮想マシンで移行が失敗した場合は、「管理」をクリックし、ホストで「アクティブ化」を選択して、メンテナンス・モードにする操作を停止してから、仮想マシンの「移行の取消」をクリックして移行を停止します。

メンテナンス・モードからのホストのアクティブ化

使用する前に、ホストをメンテナンス・モードからアクティブ化する必要があります。

  1. 「コンピュート」をクリックし、「ホスト」を選択します。

  2. ホストを選択します。

  3. 「管理」をクリックし、「アクティブ化」を選択します。

  4. 完了すると、ホスト・ステータスがUnassignedに変わり、最後にUpに変わります。

    これで、ホスト上で仮想マシンを実行できます。 ホストからメンテナンス・モードに移行されたときにホストから移行された仮想マシンは、そのアクティブ化時に自動的にホストに戻されることはありませんが、手動で移行できます。 ホストがメンテナンス・モードになる前に記憶域プール・マネージャ(SPM)だった場合、ホストがアクティブ化されるときにSPMロールが自動的に返されません。

ホストの削除

新しいバージョンにアップグレードするときに、ホストをOracle Linux Virtualization Manager環境から削除する必要がある場合があります。

  1. 「コンピュート」をクリックし、「ホスト」を選択してホストを選択します。

  2. ホストを選択します。

  3. 「管理」をクリックし、「メンテナンス」を選択します。

  4. ホストがメンテナンス・モードになったら、「削除」をクリックします。

    ホストがGluster Storageクラスタの一部であり、ボリューム・ブリックを持っている場合、またはホストが応答性のない場合は、「強制削除」チェック・ボックスを選択します。

  5. 「OK」をクリックします。

ネットワーク

Oracle Linux Virtualization Managerでは、仮想マシンのカスタムvNICを作成できます。

仮想マシンのためのvNICプロファイルのカスタマイズ

仮想マシンのvNICをカスタマイズするには:

  1. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、仮想マシン・ネットワークを追加する仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. ネットワーク・インタフェース」タブをクリックします。

    ネットワーク・インタフェース」タブが開き、ネットワークに使用可能なネットワーク・インタフェースが表示されます。

  4. 個々のインタフェースの行をクリックしてネットワーク・インタフェースを強調表示し、インタフェース・リストの右上にある「編集」をクリックします。

    ネットワーク・インタフェースの編集」ダイアログ・ボックスが開きます。

  5. ネットワーク・インタフェースの編集」ダイアログ・ボックスで、次のフィールドを更新します。
    1. プロファイル」ドロップダウン・リストから、仮想マシンに追加するネットワークを選択します。

    2. カスタムMACアドレス」チェック・ボックスをクリックし、この仮想マシンに割り当てられるMACアドレスをテキスト入力フィールドに入力するか、MACアドレスを更新します。

  6. 仮想マシンのネットワーク・インタフェース設定の編集が完了したら、「OK」をクリックします。

  7. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開きます。

    重要:

    仮想マシンはデータ・センター/クラスタ内のいずれのホストでも起動できるため、すべてのホストでそのNICの1つに、カスタマイズされたVMネットワークが割り当てられている必要があります。 仮想マシンを起動する前に、このカスタマイズされたVMネットワークを各ホストに割り当てるようにしてください。 詳細は、『Oracle Linux Virtualization Manager: スタート・ガイド』のKVMホストへの仮想マシン・ネットワークの割当てに関する項を参照してください。

  8. ネットワークを追加した仮想マシンを強調表示してから、「実行」をクリックして仮想マシンを起動します。

    仮想マシンの左側にある赤い下向き矢印アイコンが緑色になり、仮想マシンがネットワーク上で稼働しているときは「ステータス」列にUPと表示されます。

ホスト・ネットワーク・インタフェースへの論理ネットワークのアタッチと構成

物理ホスト・ネットワーク・インタフェースの設定を変更したり、物理ホスト・ネットワーク・インタフェース間で管理ネットワークを移動したり、論理ネットワークを物理ホスト・ネットワーク・インタフェースに割り当てたりできます。

後述するステップを開始する前に、次のことに注意してください。

  • ホストのIPアドレスを変更するには、ホストを削除してから再追加する必要があります。

  • ホストのVLAN設定を変更するには、oVirtドキュメントのEditing a Host’s VLAN Settingsを参照してください。

  • 外部プロバイダによって提供される論理ネットワークを物理ホスト・ネットワーク・インタフェースに割り当てることはできません。このようなネットワークは、仮想マシンが必要とするときに動的にホストに割り当てられます。

  • スイッチがLink Layer Discovery Protocol (LLDP)情報を提供するように構成されている場合は、物理ネットワーク・インタフェース上にカーソルを置くと、スイッチ・ポートの現在の構成を表示できます。

    ノート:

    論理ネットワークを割り当てる前に、構成を確認します。 どのポートおよびホストのインタフェースにパッチを適用するかを検出するには、「ポートの説明(TLVタイプ4)」および「システム名(TLVタイプ5)」を確認してください。 「ポートVLAN ID」は、タグ付けされていないEthernetフレームのスイッチ・ポートに構成されているネイティブVLAN IDを示します。 スイッチ・ポート上で構成されたすべてのVLANは、「VLAN名」VLAN IDの組み合わせとして表示されます。

ホスト・ネットワーク・インタフェースを編集して論理ネットワークを割り当てるには:

  1. 「コンピュート」 「ホスト」をクリックします。

  2. ホストの名前をクリックします。 詳細ビューが開きます。

  3. ネットワーク・インタフェース」タブをクリックします。

  4. ホスト・ネットワークの設定をクリックします。

  5. オプションで、ホスト・ネットワーク・インタフェースの上にカーソルを置くと、スイッチによって提供される構成情報が表示されます。

  6. 論理ネットワークを選択し、物理ホスト・ネットワーク・インタフェースの横にある「割当て済論理ネットワーク」領域にドラッグすることによって、論理ネットワークを物理ホスト・ネットワーク・インタフェースに接続します。

    NICが複数の論理ネットワークに接続されている場合、VLAN以外のネットワークは1つだけです。 他のすべての論理ネットワークは一意のVLANである必要があります。

  7. ネットワークを構成します。

    1. 割り当てられた論理ネットワークの上にカーソルを置き、鉛筆アイコンをクリックします。 これにより、管理ネットワークの編集ウィンドウが開きます。

    2. IPv4またはIPv6を構成します。

      • IPv4タブから、「ブート・プロトコル」を設定します。 「静的」を選択した場合は、IP「ネットマスク / ルーティング・プレフィクス」および「ゲートウェイ」を入力します。

      • IPv6タブから、次の手順を実行します。
        • 「ブート・プロトコル」「静的」に設定します。

        • ルーティング接頭辞として、スラッシュと小数を使用して接頭辞の長さを入力します。 たとえば: /48 IP:

        • 「IP」フィールドに、ホスト・ネットワーク・インタフェースの完全なIPv6アドレスを入力します。 たとえば: 2001:db8::1:0:0:6

        • 「ゲートウェイ」フィールドに、ソース・ルーターのIPv6アドレスを入力します。 たとえば: 2001:db8::1:0:0:1

      ノート:

      ホストの管理ネットワークIPアドレスを変更する場合は、新しいIPアドレスを構成するためにホストを再インストールする必要があります。

      各論理ネットワークには、管理ネットワーク・ゲートウェイとは別のゲートウェイを定義できます。 これにより、論理ネットワークに到着するトラフィックは、管理ネットワークで使用されるデフォルト・ゲートウェイではなく、論理ネットワークのゲートウェイを使用して転送されます。

      管理ネットワークに同じIPスタックを使用するようにクラスタ内のすべてのホストを設定します(IPv4またはIPv6のみ)。

    3. ネットワーク・ブリッジを構成するには、「カスタム・プロパティ」タブをクリックし、リストからbridge_optsを選択し、key = valueの構文で有効なキーと値を入力します。

      次に有効なキーとその値の例を示します。

      forward_delay=1500
      group_addr=1:80:c2:0:0:0
      group_fwd_mask=0x0
      hash_max=512
      hello_time=200
      max_age=2000
      multicast_last_member_count=2
      multicast_last_member_interval=100
      multicast_membership_interval=26000
      multicast_querier=0
      multicast_querier_interval=25500
      multicast_query_interval=13000
      multicast_query_response_interval=1000
      multicast_query_use_ifaddr=0
      multicast_router=1
      multicast_snooping=1
      multicast_startup_query_count=2
      multicast_startup_query_interval=3125

      複数のエントリは空白文字で区切ります。

    4. イーサネット・プロパティを構成するには、「カスタム・プロパティ」タブをクリックし、リストからethtool_optsを選択し、ethtoolのコマンド行引数の形式を使用して有効な値を入力します。 たとえば:

      --coalesce em1 rx-usecs 14 sample-interval 3 --offload em2 rx on lro on tso off \
      --change em1 speed 1000 duplex half

      ワイルドカードを使用して、次のようにネットワークのすべてのインタフェースに同じオプションを適用できます。

      --coalesce * rx-usecs 14 sample-interval 3

      ethtool_optsオプションはデフォルトでは使用できません。エンジン構成ツールを使用して追加する必要があります。 ethtoolプロパティを表示するには、コマンド行からman ethtoolと入力してマニュアル・ページを開きます。 詳細は、oVirtドキュメントのHow to Set Up oVirt Engine to Use Ethtoolを参照してください。

    5. ファイバ・チャネル・オーバー・イーサネット(FCoE)を構成するには、「カスタム・プロパティ」タブをクリックし、リストからfcoeを選択し、enable=yesと入力します。 複数のエントリは空白文字で区切ります。

      fcoeオプションはデフォルトでは使用できません。エンジン構成ツールを使用して追加する必要があります。 詳細は、oVirtドキュメントのHow to Set Up oVirt Engine to Use FCoEを参照してください。

    6. ホストで使用されるデフォルト・ネットワークを管理ネットワーク(ovirtmgmt)から非管理ネットワークに変更するには、非管理ネットワークのデフォルト・ルートを構成します。 詳細は、oVirtドキュメントのConfiguring a Non-Management Logical Network as the Default Routeを参照してください。

    7. 論理ネットワーク定義がホスト上のネットワーク構成と同期していない場合は、ネットワークの同期チェック・ボックスを選択します。 非同期ホストとその同期方法の詳細は、oVirtドキュメントのSynchronizing Host Networksを参照してください。

  8. ネットワーク接続を確認するには、ホストとエンジン間の接続の確認チェック・ボックスを選択します。

    ノート:

    ホストはメンテナンス・モードである必要があります。

  9. 「OK」をクリックします。

    ノート:

    ホストのすべてのネットワーク・インタフェース・カードが表示されない場合は、「管理」「機能のリフレッシュ」の順にクリックして、そのホストで使用可能なネットワーク・インタフェース・カードのリストを更新します。

ストレージ

Oracle Linux Virtualization Managerでは、仮想マシンのディスク・イメージ、ISOファイルおよびスナップショットに対して一元化された記憶域システムを使用します。 NFS (Network File System)、iSCSI (Internet Small Computer System Interface)、またはFCP (Fibre Channel Protocol) 記憶域を使用できます。 ホストに直接アタッチされるローカル記憶域を構成することもできます。

次の管理タスクは、ローカル記憶域、NFS記憶域、およびFCP記憶域の準備と追加を対象としています。 iSCSIストレージのアタッチの詳細は、『Oracle Linux Virtualization Manager: スタート・ガイド』のiSCSIデータ・ドメインのアタッチに関する項を参照してください。

KVMホストでのローカル・ストレージの使用

開始する前に、次の前提条件が満たされていることを確認してください。

  • ローカル記憶域にディスク領域を割り当てている。 物理ディスク全体をホストに割り当てることも、ディスクの一部を使用することもできます。

  • ローカル記憶域に使用されるブロック・デバイス・パス上にファイルシステムを作成した。 ローカル記憶域は常にルート・ディレクトリ(/root)とは別のファイル・システム上で定義する必要があります。

KVMホスト用のローカル記憶域の準備

KVMホスト用にローカル記憶域を準備するには:

  1. ホスト上のローカル記憶域に使用するディレクトリを作成します。

    Copy# mkdir -p /data/images
  2. ディレクトリに、vdsmユーザー(UID 36)およびkvmグループ(GID 36)への読取り/書込みアクセスを許可する権限があることを確認してください。

    Copy# chown 36:36 /data /data/images
    # chmod 0755 /data /data/images

    これで、ローカル記憶域を仮想化環境に追加できます。

ローカル記憶域を使用するためのKVMホストの構成

ローカル記憶域を使用するようにKVMホストを構成すると、KVMホストは他のホストを含むことができない新規データ・センターおよびクラスタに自動的に追加されます。 ローカル記憶域では、ライブ・マイグレーション、フェンシング、スケジューリングなどの機能は使用できません。

ローカル記憶域を使用するようにKVMホストを構成するには:

  1. 計算」に移動して「ホスト」をクリックします。

    「ホスト」ペインが開きます。

  2. ローカル記憶域ドメインを追加するホストを強調表示します。

  3. 管理」をクリックし、ドロップダウン・リストから「メンテナンス」を選択します。

    ホストが正常にメンテナンス・モードになると、ホストの「ステータス」列にMaintenanceと表示されます。

  4. ホストがMaintenanceモードになったら、「管理」をクリックし、ドロップダウン・リストからローカル記憶域の構成を選択します。

    ローカル記憶域の構成ペインが開き、「一般」タブが選択された状態になります。

  5. データ・センター」、「クラスタ」および「記憶域」フィールドの横にある「編集」をクリックして、ローカル記憶域ドメインを構成し、名前を付けます。

  6. ローカル記憶域のパスの設定テキスト入力フィールドで、ローカル記憶域ドメインのパスを指定します。

    詳細は、「KVMホスト用のローカル記憶域の準備」を参照してください。

  7. OK」をクリックして、ローカル記憶域ドメインを追加します。

    仮想化環境でローカル記憶域の追加が完了すると、ローカル記憶域に作成された新規データ・センター、クラスタおよび記憶域が、それぞれ「データ・センター」ペイン、「クラスタ」ペインおよび「記憶域」ペインに表示されます。

    タスク」をクリックして、ローカル記憶域をホストに追加するために実行される様々な処理ステップを監視できます。

    /var/log/ovirt-engine/engine.logファイルを表示して、ローカル・ストレージ・ドメインが正常に追加されたことを確認することもできます。

NFSストレージの使用

NFS共有を準備する前に、環境が次の条件を満たしていることを確認します。

  • ManagerおよびKVMホストのインストールでOracle Linux 8.5以降が実行されており、2つ以上のサーバーがマネージャ・ホストとして機能し、他のサーバーがKVMホストとして機能していることを確認します。

    インストールによって、/etc/passwdおよび/etc/groupディレクトリにvdsm:kvm (36:36)ユーザーおよびグループがそれぞれ作成されます。

    # cat /etc/passwd | grep vdsm
    vdsm:x:36:36:Node Virtualization Manager:/:/sbin/nologin
    # cat /etc/group | grep kvm
    kvm:x:36:qemu,sanlock
  • 仮想化環境でアクセス可能なOracle Linux NFSファイル・サーバー。

NFS記憶域の準備

NFS記憶域を準備するには:

  1. 仮想化環境にアクセスできるLinuxファイル・サーバーで、データ・ドメインに使用するディレクトリを作成します。

    # mkdir -p /nfs/olv_ovirt/data
  2. 新しいディレクトリで必要な権限を設定し、vdsmユーザー(UID 36)とkvmグループ(GID 36)への読取り/書込みアクセスを許可します。

    # chown -R 36:36 /nfs/olv_ovirt
    # chmod -R 0755 /nfs/olv_ovirt
  3. 次の形式を使用するNFSファイル・サーバーの/etc/exportsディレクトリに、新しく作成されたNFS共有のエントリを追加: full-path-of-share-created *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    たとえば:

    # vi /etc/exports
    # added the following entry
    /nfs/olv_ovirt/data *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    エントリが追加されていることを確認します。

    # grep "/nfs/olv_ovirt/data" /etc/exports
    /nfs/ol_ovirt/data *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    ドメイン共有をネットワーク上のすべてのサーバーにエクスポートしない場合(左カッコの前に*で示す)、次の形式を使用して、仮想化環境の個々のホストを指定できます: /nfs/ol_ovirt/data hostname-or-ip-address (rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    たとえば:

    /nfs/olv_ovirt/data
    hostname
    (rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)
  4. NFS共有をエクスポートします。

    # exportfs -rv
  5. NFSファイル・サーバーで次のshowmountコマンドを使用して、追加されたエクスポートがOracle Linux Virtualization Managerホストで使用可能であることを確認します。

    # showmount -e | grep pathname-to-domain-share-added
    # showmount | grep ip-address-of-host
NFSデータ・ドメインのアタッチ

NFSデータ・ドメインをアタッチするには:

  1. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  2. 新規ドメイン」をクリックします。

    新規ドメイン」ダイアログ・ボックスが開きます。

  3. データ・センター」ドロップダウン・リストから、データ・ドメインをアタッチするデータ・センターを選択します。

  4. ドメイン機能ドロップダウン・リストから、「データ」を選択します。 デフォルトでは、ドロップダウン・リストで「データ」オプションが選択されています。

  5. 記憶域タイプドロップダウン・リストから、「NFS」を選択します。 デフォルトでは、ドロップダウン・リストで「NFS」オプションが選択されています。

    「記憶域タイプ」に「NFS」が選択されている場合、この記憶域タイプに適用可能なオプション(必要な「エクスポート・パス」オプションなど)が「新規ドメイン」ダイアログ・ボックスに表示されます。

  6. 使用するホストドロップダウン・リストから、データ・ドメインをアタッチするホストを選択します。

  7. エクスポート・パス」オプションで、記憶域データ・ドメインとして使用するNFSエクスポートへのリモート・パスをテキスト入力フィールドに入力します。

    エクスポート・パスオプションは、次のいずれかの形式で入力する必要があります : IP:/pathnameまたはFQDN:/pathname (たとえば、server.example.com:/nfs/olv_ovirt/data)。

    入力する/pathnameは、「NFS記憶域の準備」でデータ・ドメインのNFSファイル・サーバーに作成したパスと同じである必要があります。

  8. OK」をクリックして、NFS記憶域データ・ドメインをアタッチします。

    データ・ドメインへのイメージのアップロードの詳細は、『Oracle Linux Virtualization Manager: スタート・ガイド』のデータ・ドメインへのイメージのアップロードに関する項を参照してください。

iSCSIマルチパス化の使用

ホストとiSCSI記憶域の間に複数のネットワーク・パスがあると、ネットワーク・パスの障害によってホストの停止時間が生じるのを回避できます。iSCSIマルチパス化を使用すると、論理ネットワークとiSCSI記憶域接続のグループを作成および管理できます。

エンジンは、iSCSIボンド内の論理ネットワークに割り当てられたNICまたはVLANを使用して、データ・センター内の各ホストを各記憶域ターゲットに接続します。

冗長性のために、複数のターゲットおよび論理ネットワークを使用してiSCSIボンドを作成できます。

iSCSIマルチパス化を構成する前に、次の用意ができていることを確認します。

iSCSIマルチパス化の構成

iSCSIマルチパス化を構成するには:

  1. 「コンピュート」 「データ・センター」をクリックします。

  2. データ・センター名をクリックします。

  3. 「iSCSIマルチパス」タブで、「追加」をクリックします。

  4. 「iSCSIボンドの追加」ウィンドウで、「名前」を入力し、オプションで「説明」を追加します。

  5. 「論理ネットワーク」から論理ネットワークを選択し、「記憶域ターゲット」から記憶域ドメインを選択します。 同じターゲットへのすべてのパスを選択する必要があります。

  6. 「OK」をクリックします。

データ・センター内のホストは、iSCSIボンド内の論理ネットワークを介してiSCSIターゲットに接続されます。

論理ネットワークのiSCSIボンドへの移行

iSCSIトラフィック用に作成した論理ネットワークがあり、既存のネットワーク・ボンドの上に構成されている場合は、中断や停止を発生させることなく、その論理ネットワークを同じサブネット上のiSCSIボンドに移行できます。

論理ネットワークをiSCSIボンドに移行するには:

  1. 不要になるように現在の論理ネットワークを変更します。

    1. 「コンピュート」をクリックし、「クラスタ」をクリックします。

    2. クラスタ名をクリックします。

    3. クラスタの詳細ページの「論理ネットワーク」タブで、現在の論理ネットワーク(net-1)を選択し、「ネットワークの管理」をクリックします。

    4. 「必要」チェック・ボックスの選択を解除し、OKをクリックします。

  2. 必須ではなく、VMネットワークではない新しい論理ネットワークを作成します。

    1. ネットワークの追加をクリックします。 これにより、新規論理ネットワークウィンドウが開きます。

    2. 「一般」タブで、「名前」 (net-2)を入力し、「VMネットワーク」チェック・ボックスをクリアします。

    3. 「クラスタ」タブで、「必要」チェック・ボックスの選択を解除し、OKをクリックします。

  3. 現在のネットワーク・ボンドを削除し、論理ネットワークを再割当てします。

    1. 「コンピュート」をクリックし、「ホスト」をクリックします。

    2. ホスト名をクリックします。

    3. ホストの詳細ページの「ネットワーク・インタフェース」タブで、「ホスト・ネットワークの設定」をクリックします。

    4. net-1を右にドラッグして割当てを解除します。

    5. 現在のボンドを右にドラッグして削除します。

    6. net-1およびnet-2を左にドラッグして、物理インタフェースに割り当てます。

    7. net-2ネットワークを編集するには鉛筆アイコンをクリックします。

    8. 「ネットワークの編集」ウィンドウのIPV4タブで、「静的」を選択します。

    9. サブネットのIPおよび「ネットマスク/ルーティング・プレフィクス」を入力し、OKをクリックします。

  4. iSCSIボンドを作成します。

    1. 「コンピュート」をクリックし、「データ・センター」をクリックします。

    2. データ・センター名をクリックします。

    3. データ・センターの詳細ページの「iSCSIマルチパス」タブで、「追加」をクリックします。

    4. 「iSCSIボンドの追加」ウィンドウで、「名前」を入力し、ネットワークnet-1およびnet-2を選択し、OKをクリックします。

データ・センターには、新旧の論理ネットワークを含むiSCSIボンドがあります。

FCデータ・ドメインの追加

FCデータ・ドメインを追加するには:

  1. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  2. 記憶域ドメインペインで「新規ドメイン」ボタンをクリックします。

    新規ドメイン」ダイアログ・ボックスが開きます。

  3. 名前」フィールドに、新しいデータ・ドメインの名前を入力します。

  4. データ・センター」ドロップダウン・リストから、データ・ドメインをアタッチするデータ・センターを選択します。 デフォルトでは、ドロップダウン・リストの「デフォルト」オプションが選択されています。

  5. ドメイン機能ドロップダウン・リストから、ドメイン機能を選択します。 デフォルトでは、ドロップダウン・リストの「データ」オプションが選択されています。

    この例ではデータ・ドメインを作成するため、このステップではドメイン機能として「データ」を選択したままにします。

  6. 記憶域タイプドロップダウン・リストから、ファイバ・チャネルを選択します。

  7. 使用するホストドロップダウン・リストから、データ・ドメインをアタッチするホストを選択します。

  8. 記憶域タイプファイバ・チャネルが選択されると、「新規ドメイン」ダイアログ・ボックスに、未使用のLUNを含む既知のターゲットが自動的に表示されます。

  9. ターゲットに接続しているLUN IDの横の「追加」をクリックします。

  10. (オプション)詳細パラメータを構成します。

  11. 「OK」をクリックします。

    タスク」をクリックして、FCデータ・ドメインをデータ・センターにアタッチするために実行される様々な処理ステップを監視できます。

GlusterFS記憶域のデプロイ

Oracle Linux Virtualization Managerは、オープン・ソースのスケールアウト分散ファイルシステムであるGlusterFSと統合されており、計算と記憶域の両方を同じホストから提供する、ハイパーコンバージド・ソリューションを提供します。 ホストに存在するGlusterのボリュームは、仮想マシンのイメージを格納するManagerのストレージ・ドメインとして使用されます。 このシナリオでは、Managerはこれらのホストの仮想マシン内で自己ホスト型エンジンとして実行されますが、スタンドアロン環境内にGlusterFSをデプロイできます。

GlusterFSストレージ・ドメインを作成する手順については、My Oracle Support (MOS)の記事「Glusterfsストレージ・ドメインを作成する方法(ドキュメントID 2679824.1)」を参照してください。

ノート:

GlusterFS記憶域を使用するハイパーコンバージド・インフラストラクチャとして自己ホスト・エンジンをデプロイする場合は、自己ホスト・エンジンをデプロイする前にGlusterFSをデプロイする必要があります。 前提条件を含むGlusterFSの使用方法の詳細は、「Oracle Linux GlusterFSドキュメント」を参照してください。

Cockpitを使用したGlusterFS記憶域のデプロイ

Cockpit Webインタフェースを使用してGlusterFSストレージをデプロイするには、次のステップを実行します。

重要:

GlusterFSをデプロイするには、3つ以上のKVMホストが必要です。 3つ以上のKVMホストが必要な場合は、3つのファクタで追加する必要があります。

  1. すべてのKVMホストに次のパッケージがインストールされていることを確認します:
    • インストール用のUIを提供するcockpit-ovirt-dashboard

    • glusterサービスを管理するvdsm-gluster

    • コックピットのデプロイメントに使用されるKVMホスト上のovirt-host

  2. 計算」に移動して「ホスト」をクリックします。

  3. Name」列で、指定されたサーバーとして使用するホストをクリックします。

  4. Host Console」をクリックします。

  5. ログイン資格証明(rootアカウントのユーザー名およびパスワード)を入力します。

  6. 仮想化」に移動して、ホストされたエンジンをクリックします。

  7. Hosted Engine Setup」の「Redeploy」をクリックします。

  8. Hyperconverged」の「Start」をクリックします。

  9. Hosts」画面で、GlusterFSに使用するデータ・センターにある3つ(以上)のKVMホストを、メインに指定するKVMホストを最初にして入力し、終了したら「Next」をクリックします。

  10. 「FQDNs」画面で、ホスト・エンジンで管理されるホストのFQDN (またはIPアドレス)を入力し、完了したら「Next」をクリックします。

    ノート:

    指定サーバーのFQDNは、ホスト・エンジンのデプロイメント・プロセスで入力するため、ここでは要求されません。

  11. Packages」画面で「Next」をクリックします。

  12. Volumes」画面で、必要な最小記憶域ドメイン(enginedataexportおよびiso)を作成します。 終了後に「次へ」をクリックします。

    たとえば:

    engine

    • Name: engine

    • Volume Type: Replicate (デフォルト)

    • Arbiter: チェック・ボックスが選択されていることを確認します。

    • Brick Dirs: /gluster_bricks/engine/engine (デフォルト)

    data

    • Name: data

    • Volume Type: Replicate (デフォルト)

    • Arbiter: チェック・ボックスが選択されていることを確認します。

    • Brick Dirs: /gluster_bricks/data/data (デフォルト)

    export

    • Name: export

    • Volume Type: Replicate (デフォルト)

    • Arbiter: チェック・ボックスが選択されていることを確認します。

    • Brick Dirs: /gluster_bricks/export/export (デフォルト)

    iso

    • Name: iso

    • Volume Type: Replicate (デフォルト)

    • Arbiter: チェック・ボックスが選択されていることを確認します。

    • Brick Dirs: /gluster_bricks/iso/iso (デフォルト)

  13. Brick Locations」画面で、ボリュームのブリックの場所を指定し、完了したら「Next」をクリックします。

    このステップでは、ボリューム(enginedataexportおよびiso)のブリックの場所を指定します。

  14. 画面を確認し、「Deploy」をクリックします。

    • Glusterディスクとして内部ディスクを使用している場合、編集は必要なく、単に「Deploy」をクリックしてデプロイメントを続行できます。

    • 外部iSCSI ZFS外部ドライブをGlusterディスクとして使用している場合は、「編集」をクリックしてgdeployConfig.confファイルを編集し、ストレージに使用される各サーバー上のブロック・デバイスを指定します。 Save」をクリックし、「Deploy」をクリックしてデプロイメントを続行します。

    gdeployツールで必要なパッケージがインストールされ、Glusterボリュームおよびそれらの基盤記憶域が構成されるため、このプロセスの完了には少し時間がかかります。

    デプロイメントが正常に完了すると、画面にメッセージが表示されます。

Managerを使用したGlusterFS記憶域ドメインの作成

GlusterFS記憶域ボリュームを記憶域ドメインとして追加するには、次のようにします。

  1. 記憶域」に移動して、「ドメイン」をクリックします。

  2. 記憶域ドメインペインで「新規ドメイン」ボタンをクリックします。

  3. 名前」フィールドに、新しいデータ・ドメインの名前を入力します。

  4. Data Center」ドロップダウン・リストから、GlusterFSボリュームがデプロイされているデータ・センターを選択します。 デフォルトでは、ドロップダウン・リストの「デフォルト」オプションが選択されています。

  5. ドメイン機能ドロップダウン・リストから、ドメイン機能を選択します。 デフォルトでは、ドロップダウン・リストの「データ」オプションが選択されています。

    このステップに関しては、この例ではデータ・ドメインが作成されるため、「Data」をドメイン機能のままにします。

  6. Storage Type」ドロップダウン・リストから、「GlusterFS」を選択します。

  7. 使用するホストドロップダウン・リストから、データ・ドメインをアタッチするホストを選択します。

  8. Storage Type」として「GlusterFS」を選択すると、「New Domain」ダイアログ・ボックスが更新され、GlusterFS記憶域ドメインに関連付けられている追加の構成フィールドが表示されます。

  9. Use managed gluster volume」チェック・ボックスが選択されていないことを確認します。

  10. 「Gluster」ドロップダウン・リストから、ドメイン機能を作成するパスを選択します。

  11. 「マウント・オプション」オプションに対しては、mount -oコマンドを使用するときと同様に、追加のマウント・オプションをカンマ区切りリストで指定します。

  12. (オプション)詳細パラメータを構成します。

  13. OK」をクリックしてボリュームを記憶域ドメインとしてマウントします。

    Tasks」をクリックして、GlusterFS記憶域ドメインをデータ・センターに追加するために実行される様々な処理ステップを監視できます。

データ・センターからの記憶域ドメインのデタッチ

記憶域ドメインは、デタッチおよび削除の前にメンテナンス・モードになっている必要があります。 これは、別のデータ・ドメインをマスター・データ・ドメインとして再設計するために必要です。

仮想マシンに記憶域ドメインのリースがある場合、記憶域ドメインをメンテナンス・モードに移行することはできません。 最初に仮想マシンを停止するか、リースを削除するか別の記憶域ドメインに移動する必要があります。

記憶域ドメインをあるデータ・センターからデタッチして別のデータ・センターに移行するには:

  1. 記憶域ドメインで実行されているすべての仮想マシンを停止します。

  2. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  3. 記憶域ドメインの名前をクリックします。

    記憶域ドメインの詳細ビューが開きます。

  4. 「データ・センター」タブをクリックします。

  5. 「メンテナンス」をクリックします。

    OVF更新の失敗を無視チェック・ボックスを使用すると、OVFの更新が失敗した場合でも記憶域ドメインをメンテナンス・モードにできます。

    ノート:

    OVF_STOREディスクは、記憶域データ・ドメインに存在する仮想マシンおよびディスクのメタデータを含むイメージです。

  6. 「OK」をクリックします。

    記憶域ドメインが非アクティブ化され、結果リストにInactiveステータスが表示されます。 これで、非アクティブな記憶域ドメインをデータ・センターからデタッチできます。

  7. 「デタッチ」をクリックします。

  8. 「OK」をクリックして、記憶域ドメインをデタッチします。

記憶域ドメインがデータ・センターからデタッチされたため、別のデータ・センターにアタッチできます。

仮想マシン

Oracle Linux Virtualization Managerでは、仮想マシンの基本的な管理(ライブ編集、スナップショットの作成と使用、ライブ・マイグレーションを含む)を実行できます。

ノート:

仮想マシンの作成の詳細は、Oracle Linux Virtualization Manager: スタート・ガイドを参照してください。

仮想マシンのライブ編集

仮想マシンの多くの設定は実行中に変更することもできます。

  1. 管理ポータルから、「計算」をクリックし、「仮想マシン」を選択します。

  2. 名前」列で、変更する仮想マシンを選択して、「編集」をクリックします。

  3. 仮想マシンの編集」ウィンドウの左下で、「拡張オプションの表示」をクリックします。

  4. 仮想マシンの実行中に、仮想マシンを再起動せずに次のプロパティを変更します。

    以下を変更するには、「一般」タブを選択します。

    • 最適化

      次の3つのオプションの中から選択できます。

      • デスクトップ - 仮想マシンにサウンド・カードがあり、イメージ(シン割当て)を使用し、ステートレスです。

      • サーバー - 仮想マシンにサウンド・カードがなく、クローニングされたディスク・イメージを使用し、ステートレスではありません。 対照的に、仮想マシンはデスクトップ・マシンとして動作するように最適化されています。

      • 高性能 - 仮想マシンは最高の効率を実現するために、推奨される一連の構成設定を使用して事前構成されます。

      • 名前

        仮想マシンの名前は、データ・センター内で一意である必要があります。 空白を含めることはできず、A-Zまたは0-9の文字を少なくとも1つ含める必要があります 最大長は255文字です。

        この名前は、Oracle Linux Virtualization Manager内の異なるデータ・センターで再使用できます。

      • 説明およびコメント

      • 削除保護

        仮想マシンを削除できないようにする場合は、このボックスを選択します。 後で仮想マシンを削除することを決定した場合、その選択を削除します。

      • ネットワーク・インタフェース

        ネットワーク・インタフェースを追加または削除するか、既存のNICのネットワークを変更します。

    以下を変更するには、「システム」タブを選択します。

    • メモリー・サイズ

      仮想メモリーのホットプラグに使用します。 詳細は、「仮想メモリーのホットプラグ」を参照してください。

    • 仮想ソケット (拡張パラメータの下)

      仮想マシンへのCPUのホットプラグに使用します。 仮想マシンには、KVMホストに存在するよりも多くのソケットを割り当てないでください。 詳細は、「vCPUのホットプラグ」を参照してください。

    以下を変更するには、「コンソール」タブを選択します。

    • 厳密なユーザー・チェックを無効化

      デフォルトでは、厳密なチェックが有効になっているため、仮想マシンのコンソールに接続できるのは、仮想マシンがリブートされるまで1人のユーザーのみです。 ただし、SuperUserはいつでも接続でき、既存の接続を置き換えます。 SuperUserが接続している場合、仮想マシンがリブートするまで、通常ユーザーは接続できません。

      重要:

      前のユーザーのセッションが新しいユーザーに公開されるため、このチェック・ボックスの選択は慎重に行ってください。

    以下を変更するには、「高可用性」タブを選択します。

    • 高可用性

      ホストがクラッシュした場合や動作しなくなった場合に、仮想マシンを自動的に別のホストにライブ・マイグレーションさせるには、このボックスを選択します。 高可用性が設定された仮想マシンのみが別のホストで再起動されます。 仮想マシンのホストを手動で停止した場合、仮想マシンは別のホストに自動的にライブ・マイグレーションされません。 詳細は、「高可用性仮想マシンの構成」を参照してください。

      ノート:

      ホスト」タブで移行モードとして手動マイグレーションのみを許可またはマイグレーションを許可しないを選択した場合には、このボックスを選択できません。 仮想マシンを高可用性にするには、エンジンが必要に応じて仮想マシンを別のホストに移行できるようにする必要があります。

    • 実行の優先度/マイグレーション・キュー

      仮想マシンを別のホストにライブ・マイグレーションするか別のホストで再起動するための優先度レベル(「」、「」または「」)を選択します。

    アイコン」タブを選択し、新しいアイコンをアップロードします。

  5. すべてのタブが完了したら、「OK」をクリックして変更内容を保存します。

その他の設定に対する変更は、仮想マシンを停止して再起動するときに適用されます。 それまでは、保留中の変更があることを示すオレンジ色のアイコンが表示されます。

ホスト間の仮想マシンの移行

同じ記憶域ドメインを共有する仮想マシンは、同じクラスタに属するホスト間でライブ・マイグレーションできます。 ライブ・マイグレーションを使用すると、実行中の仮想マシンを、サービスを中断することなく物理ホスト間で移動できます。 仮想マシンは電源が投入されたままで、仮想マシンが新しい物理ホストに再配置されている間もユーザー・アプリケーションは実行を継続します。 バックグラウンドで、仮想マシンのRAMがソース・ホストから宛先ホストにコピーされます。 記憶域およびネットワークの接続は変更されません。

ライブ・マイグレーションを使用して仮想マシンをシームレスに移動することで、いくつかの一般的なメンテナンス・タスクをサポートします。 ライブ・マイグレーションを使用する前に、ライブ・マイグレーションを適切にサポートするように環境が正しく構成されていることを確認してください。

ライブ・マイグレーション用の環境の構成

ライブ・マイグレーションを正常に実行できるようにするには、ライブ・マイグレーションを正しく構成する必要があります。 実行中の仮想マシンを正常に移行するには、少なくとも次のことが必要です。

  • ソース・ホストおよび移行先ホストは同じクラスタにある必要があります

  • ソース・ホストおよび移行先ホストのステータスはUpである必要があります。

  • ソース・ホストおよび移行先ホストは、同じ仮想ネットワークおよびVLANにアクセスできる必要があります

  • ソース・ホストと宛先ホストは、仮想マシンが存在するデータ記憶域ドメインにアクセスできる必要があります

  • 仮想マシンの要件をサポートするのに十分なCPU性能が宛先ホストに必要です。

  • 仮想マシンの要件をサポートするのに十分な未使用のRAMが宛先ホストに必要です。

ノート:

ライブ・マイグレーションは、管理ネットワークを使用して実行されます。 サポートされる同時移行の数はデフォルトで制限されています。 このような制限があっても、同時マイグレーションによって管理ネットワークが飽和する可能性があります。 ネットワーク飽和のリスクを最小限に抑えるために、記憶域、ディスプレイおよび仮想マシンのデータに対して個別の論理ネットワークを作成することをお薦めします。

マイグレーション時のネットワーク停止を軽減するように仮想マシンを構成するには:

  • 移行先ホストに使用可能な仮想機能(VF)があることを確認します

  • パススルーvNICのプロファイルで、「パススルー」および「移行可能」オプションを設定します

  • 仮想マシンのネットワーク・インタフェースのホットプラグを有効にします

  • 移行中に仮想マシンのネットワーク接続を維持するために、バックアップのVirtIO vNICが仮想マシンにあることを確認します

  • ボンディングを構成する前に、VirtIO vNICのネットワーク・フィルタなしオプションを設定します

  • 両方のvNICを仮想マシンのアクティブ・バックアップ・ボンディングの下位として、パススルーvNICをプライマリ・インタフェースとして追加します

仮想マシンの自動マイグレーション

エンジンは次の2つの状況で仮想マシンのライブ・マイグレーションを自動的に開始します。

  • ホストがメンテナンス・モードに移行されると、そのホストで実行されているすべての仮想マシンについてライブ・マイグレーションが開始されます。 クラスタ全体に負荷を分散するために、仮想マシンの移行時に各仮想マシンの宛先ホストが評価されます。

  • ロード・バランシングまたは節電レベルをスケジュール・ポリシーに合わせて維持するために、ライブ・マイグレーションが開始されます。

必要に応じて、特定の仮想マシンの自動(または手動)ライブ・マイグレーションを無効にできます。

仮想マシン移行モードの設定

仮想マシンの「移行モード」設定を使用すると、自動および手動移行の許可、自動移行の無効化、または自動および手動移行の無効化を行うことができます。 仮想マシンが特定のホストでのみ実行されるように構成されている場合、手動では移行できません。

仮想マシンの移行モードを設定するには:

移行モード」ドロップダウン・リストから、手動および自動マイグレーションを許可手動マイグレーションのみを許可またはマイグレーションを許可しないを選択します。

仮想マシンの移行モードを設定するには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

  2. 仮想マシンを選択し、「編集」をクリックします。

  3. 「ホスト」タブをクリックします。

  4. 実行開始場所ラジオ・ボタンを使用して、仮想マシンをクラスタ内の任意のホスト、特定のホスト、またはホストのグループのいずれで実行するかを指定します。

    仮想マシンにホスト・デバイスがアタッチされていて、別のホストを選択した場合、以前のホストからのホスト・デバイスは仮想マシンから削除されます。

    注意:

    仮想マシンを特定の1つのホストに割り当てることと、移行を無効にすることは、Oracle Linux Virtualization Manager高可用性(HA)では相互に排他的です。 1つの特定のホストに割り当てられた仮想マシンは、サードパーティのHA製品を使用してのみ高可用性にできます。 この制限は、ホストのグループに割り当てられた仮想マシンには適用されません。

  5. 移行モード」ドロップダウン・リストから、手動および自動マイグレーションを許可手動マイグレーションのみを許可またはマイグレーションを許可しないを選択します。

  6. (オプション) 「カスタム移行のダウンタイムを使用」をチェックし、ミリ秒単位の値を指定します。

  7. 「OK」をクリックします。

仮想マシンの手動移行

仮想マシンを手動で移行するには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

  2. 実行中の仮想マシンを選択し、「移行」をクリックします。

  3. ホストを自動的に選択または移行先ホストの選択のいずれかを選択し、ドロップダウン・リストから移行先ホストを選択します。

    ホストを自動的に選択を選択すると、スケジュール・ポリシーに設定されているロード・バランシングと電源管理ルールに従って、移行先ホストが自動的に決定されます。

  4. 「OK」をクリックします。

移行中、進捗はStatusフィールドに表示されます。 仮想マシンが移行されると、Hostフィールドが更新され、仮想マシンの新しいホストが表示されます。

Oracle Linuxテンプレートのインポート

Oracle Linux Virtualization Managerスタート・ガイドには、Oracle Linuxテンプレートの作成方法が記載されています。 ただし、Oracleには事前インストール済および事前構成済のテンプレートが用意されており、完全に構成されたソフトウェア・スタックをデプロイできます。 Oracle Linuxテンプレートを使用すると、インストールと構成の負担がなくなり、進行中のメンテナンスでの負担が減ります。

Oracle Linuxテンプレートをインポートするには:

  1. テンプレートOVAファイルをhttp://yum.oracle.com/oracle-linux-templates.htmlからダウンロードし、KVMホストにコピーします。

  2. ファイルに権限を割り当てます。

    # chown 36:36 /tmp/<myfile>.ova
  3. kvmユーザーがOVAファイルのパスにアクセスできることを確認します。たとえば:

    # -rw-r--r-- 1 vdsm kvm 872344576 Jan 15 17:43 OLKVM_OL7U7_X86_64.ova
  4. 管理ポータルで、「コンピュート」をクリックし、「テンプレート」を選択します。

  5. 「インポート」をクリックします。

  6. 「テンプレートのインポート」ウィンドウで、次のオプションを選択します。

    • データ・センター: < datacenter>

    • ソース: 仮想アプライアンス(OVA)

    • ホスト: <kvm_host_containing_ova>

    • ファイル・パス: <full_path_to_ova_file>

  7. 「ロード」をクリックします。

  8. ソースの仮想マシンリストから、仮想アプライアンスのチェック・ボックスを選択します。

    ノート:

    インポートする複数の仮想アプライアンスを選択できます。

  9. 右矢印をクリックしてアプライアンスを「インポートする仮想マシン」リストに移動し、「次へ」をクリックします。

  10. インポートするテンプレートの「クローン」フィールドをクリックし、その「一般」「ネットワーク・インタフェース」および「ディスク」構成を確認します。

  11. 「OK」をクリックします。

インポート・プロセスには数分かかる可能性があります。 完了したら、「コンピュート」「テンプレート」の順にクリックしてテンプレートを表示できます。

インポートしたテンプレートから仮想マシンを作成するには、Oracle Linux Virtualization Manager: スタート・ガイドテンプレートからのOracle Linux仮想マシンの作成に関する項を参照してください。

仮想マシンのスナップショットの操作

スナップショットは、特定の時点で使用可能な任意のまたはすべてのディスク上の仮想マシンのオペレーティング・システムとアプリケーションのビューです。 仮想マシンへの変更によって意図しない結果が生じる可能性がある場合、変更を行う前に仮想マシンのスナップショットを取得できます。 必要に応じて、スナップショットを使用して、仮想マシンを前の状態に戻すことができます。

ノート:

スナップショットを使用する際のベスト・プラクティスについては、Oracle Linux Virtualization Managerアーキテクチャおよびプランニング・ガイドスナップショット使用時の考慮事項を参照してください。

仮想マシンのスナップショットの作成
仮想マシンのスナップショットを作成するには:
  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、スナップショットを取得する仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. 「作成」をクリックします。

  5. (オプション)説明」フィールドにスナップショットの説明を入力します。

  6. (オプション)含めるディスクチェック・ボックスを選択します。 デフォルトでは、すべてのディスクが選択されています。

    重要:

    ディスクを選択しない場合、ディスクのない仮想マシンの部分的なスナップショットが作成されます。 保存された部分的なスナップショットにはディスクがありませんが、部分的なスナップショットをプレビューして仮想マシンの構成を表示することはできます。

  7. (オプション)仮想マシンのメモリーをスナップショットに含めるには、メモリーの保存チェック・ボックスを選択します。 デフォルトでは、このチェック・ボックスは選択されています。

  8. OK」をクリックしてスナップショットを保存します。

    選択したディスクの仮想マシンのオペレーティング・システムとアプリケーションは、プレビューまたはリストアが可能なスナップショットに保存されます。

    スナップショット」ペインでは、スナップショットの作成時にスナップショットの横にLockアイコンが表示されます。 完了すると、アイコンがSnapshot(カメラ)アイコンに変わります。 次に、「一般」、「ディスク」、「ネットワーク・インタフェース」およびインストール済アプリケーションのドロップダウン・ビューを選択して、スナップショットに関する詳細を表示できます。

スナップショットからの仮想マシンのリストア
スナップショットを使用すると、仮想マシンを前の状態にリストアできます。

ノート:

このタスクを実行する前に、仮想マシンがDown状態にある必要があります。

スナップショットから仮想マシンをリストアするには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、スナップショットからリストアする仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. スナップショット」ペインで、仮想マシンのリストアに使用するスナップショットを選択します。

  5. プレビュー」ドロップダウン・リストから、「カスタム」を選択します。

    仮想マシン」ペインで、仮想マシンのステータスが一時的にImage Lockedに変わり、その後Downに戻ります。

    スナップショット」ペインで、スナップショットのプレビューが完了すると、スナップショットの横にPreview (目)アイコンが表示されます。

  6. 実行」をクリックして、仮想マシンを起動します。

    仮想マシンは、スナップショットのディスク・イメージを使用して実行されます。 スナップショットをプレビューして、仮想マシンの状態を確認できます。

  7. 停止」をクリックして、仮想マシンを停止します。

  8. スナップショット」ペインから、次のいずれかのステップを実行します。
    1. コミット」をクリックして、仮想マシンをスナップショットの状態になるように完全にリストアします。 以降のスナップショットはすべて消去されます。

    2. または、「元に戻す」をクリックしてスナップショットを非アクティブ化し、仮想マシンを前の状態に戻します。

スナップショットからの仮想マシンの作成

このタスクを実行する前に、仮想マシンのスナップショットを作成する必要があります。 詳細は、「仮想マシンのスナップショットの作成」を参照してください。

スナップショットから仮想マシンを作成するには:
  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、別の仮想マシンの作成元となる基礎として使用するスナップショットがある仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. スナップショット」ペインで、仮想マシンの作成元のスナップショットを選択します。

  5. 「クローン」をクリックします。

    スナップショットからVMをクローニングダイアログ・ボックスが開きます。

  6. 名前」フィールドに、仮想マシンの名前を入力します。

    ノート:

    名前」フィールドは、このダイアログ・ボックスの唯一の必須フィールドです。

    しばらくすると、クローニングされた仮想マシンがImage Lockedステータスとともに「仮想マシン」ペインに表示されます。 仮想マシンは、Managerが仮想マシンの作成を完了するまでこの状態のままです。 仮想マシンが使用可能になると、「仮想マシン」ペインでそのステータスがImage LockedからDownに変わります。

スナップショットの削除

仮想マシンのスナップショットを削除して、仮想化環境から完全に削除できます。 この操作は実行中の仮想マシンでサポートされており、仮想マシンをDown状態にする必要はありません。

重要:

  • イメージ・チェーンからスナップショットを削除する場合、元のボリュームと新しくマージされるボリュームの両方を一時的に収容できるだけの十分な空き領域が記憶域ドメインにある必要があります。そうでない場合はスナップショットの削除に失敗します。 これは、2つのボリュームからのデータがサイズ変更されたボリュームにマージされ、サイズ変更されたボリュームは、マージされた2つのイメージの合計サイズに対応するように増大するためです。 このシナリオでは、ボリュームをエクスポートして再インポートし、スナップショットを削除する必要があります。

  • 削除するスナップショットがベース・イメージに含まれている場合、削除対象のスナップショットを含むボリュームの後続ボリュームは、ベース・ボリュームを含むように拡張されます。

  • 削除されるスナップショットが、内部記憶域にホストされているQCOW2の(シンプロビジョニングされている)非ベース・イメージに含まれている場合、後続ボリュームは、削除されるスナップショットを含むボリュームを含むように拡張されます。

スナップショットを削除するには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、削除するスナップショットがある仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. スナップショット」ペインで、削除するスナップショットを選択します。

  5. 削除するスナップショットを選択します。

  6. 「削除」をクリックします。

  7. 「OK」をクリックします。

    スナップショット」ペインで、スナップショットが削除されるまで、スナップショットの横にLockアイコンが表示されます。

暗号化通信

組織のサード・パーティCA証明書を構成して、HTTPS経由で接続するユーザーにOracle Linux Virtualization Managerを識別するようにすることができます。

HTTPS接続にサード・パーティのCA証明書を使用しても、エンジン・ホストとKVMホストの間の認証に使用される証明書には影響しません。 これらは引き続き、Managerによって生成される自己署名証明書を使用します。

Oracle Linux Virtualization Manager Apache SSL証明書の置換

開始する前に、認証局(CA)によって発行されたデジタル証明書であるサード・パーティCA証明書を取得する必要があります。 証明書はPEMファイルとして提供されます。 証明書チェーンはルート証明書までの完全なものである必要があります。 チェーンの順序は重要であり、最後の中間証明書からルート証明書まで連なっている必要があります。

注意:

/etc/pkiディレクトリまたはサブディレクトリの権限および所有権は変更しないでください。 /etc/pkiおよび/etc/pki/ovirt-engineディレクトリの権限は、755のデフォルト値として維持する必要があります。

Oracle Linux Virtualization Manager Apache SSL証明書を置換するには:

  1. 新規のサード・パーティCA証明書をホスト全体の信頼ストアにコピーし、信頼ストアを更新します。

    # cp third-party-ca-cert.pem /etc/pki/ca-trust/source/anchors/
    # update-ca-trust export
  2. /etc/pki/ovirt-engine/apache-ca.pemへのシンボリック・リンクを削除します。

    エンジンは、/etc/pki/ovirt-engine/ca.pemにシンボリック・リンクされている/etc/pki/ovirt-engine/apache-ca.pemを使用するように構成されています。

    # rm /etc/pki/ovirt-engine/apache-ca.pem 
  3. CA証明書をManagerのPKIディレクトリにコピーします。

    # cp third-party-ca-cert.pem /etc/pki/ovirt-engine/apache-ca.pem 
  4. 既存の秘密キーと証明書をバックアップします。

    # cp /etc/pki/ovirt-engine/keys/apache.key.nopass/etc/pki/ovirt-engine/keys/ \
      apache.key.nopass.bck
    # cp /etc/pki/ovirt-engine/certs/apache.cer/etc/pki/ovirt-engine/certs/apache.cer.bck
  5. 次のコマンドを入力することにより新しいApache秘密キーをManagerのPKIディレクトリにコピーし、プロンプトに応答します。

    # cp apache.key /etc/pki/ovirt-engine/keys/apache.key.nopass
    cp: overwrite \u2018/etc/pki/ovirt-engine/keys/apache.key.nopass\u2019? y
  6. 次のコマンドを入力することにより新しいApache証明書をManagerのPKIディレクトリにコピーし、プロンプトに応答します。

    # cp apache.cer /etc/pki/ovirt-engine/certs/apache.cer 
    cp: overwrite \u2018/etc/pki/ovirt-engine/certs/apache.cer\u2019? y
  7. Apache HTTPサーバー(httpd)およびManagerを再起動します。

    # systemctl restart httpd
    # systemctl restart ovirt-engine
  8. 次のパラメータを追加して、新しいトラスト・ストア構成ファイル(または既存のもの)を/etc/ovirt-engine/engine.conf.d/99-custom-truststore.confに作成します。

    ENGINE_HTTPS_PKI_TRUST_STORE="/etc/pki/java/cacerts" 
    ENGINE_HTTPS_PKI_TRUST_STORE_PASSWORD=""  
  9. 既存のWebsocket構成ファイルをバックアップします。

    # cp /etc/ovirt-engine/ovirt-websocket-proxy.conf.d/10-setup.conf/etc/ovirt-engine/ \
    ovirt-websocket-proxy.conf.d/10-setup.conf.bck
  10. 次のパラメータを追加して、/etc/ovirt-engine/ovirt-websocket-proxy.conf.d/10-setup.confのWebsocket構成ファイルを編集します。

    SSL_CERTIFICATE=/etc/pki/ovirt-engine/certs/apache.cer 
    SSL_KEY=/etc/pki/ovirt-engine/keys/apache.key.nopass
  11. ovirt-provider-ovnサービスを再起動します。

    # systemctl restart ovirt-provider-ovn
  12. ovirt-engineサービスを再起動します。

    # systemctl restart ovirt-engine

イベント通知

次のセクションでは、仮想化環境のイベントを監視するイベント通知の設定方法について説明します。 特定のイベントが発生したときにイベント通知を電子メールで送信し、指定のユーザーにアラートを通知するようにManagerを構成するか、簡易ネットワーク管理プロトコル(SNMP)トラップを有効にして仮想化環境を監視できます。

エンジンに対するイベント通知サービスの構成

イベント通知を電子メール受信者に正しく送信するには、エンジンのメール・サーバーを構成し、ovirt-engine-notifierサービスを有効にする必要があります。 管理ポータルでのイベント通知の作成の詳細は、「管理ポータルでのイベント通知の作成」を参照してください。

エンジンの通知サービスを構成するには:
  1. Managerを実行しているホストにログインします。

  2. ovirt-engine-notifier.conf90-email-notify.confという名前の新しいファイルにコピーします。

    # cp /usr/share/ovirt-engine/services/ovirt-engine-notifier/ovirt-engine-notifier.conf/ \
    etc/ovirt-engine/notifier/notifier.conf.d/90-email-notify.conf
  3. 90-email-notify.confファイルを編集するには、EMAIL Notificationsセクションを除くすべてを削除します。

    ノート:

    仮想化環境でSNMPトラップも構成する予定の場合は、ovirt-notifier.confファイルのSNMP_TRAP Notificationsセクションから20-snmp.confという名前のファイルに値をコピーすることもできます。 詳細は、「SNMPトラップを送信するエンジンの構成」を参照してください。

  4. 正しい電子メール変数を入力します。 このファイルは、元のovirt-engine-notifier.confファイルの値をオーバーライドします。
    ---------------------
    # EMAIL Notifications #
    ---------------------
    
    # The SMTP mail server address. Required.
    MAIL_SERVER=myemailserver.mycompany.com
    
    # The SMTP port (usually 25 for plain SMTP, 465 for SMTP with SSL, 587 for SMTP with TLS)
    MAIL_PORT=25
    
    # Required if SSL or TLS enabled to authenticate the user. Used also to specify 'from' 
      user address if mail server
    # supports, when MAIL_FROM is not set. Address is in RFC822 format
    MAIL_USER=email.example.com
    
    # Required to authenticate the user if mail server requires authentication or if SSL or 
      TLS is enabled
    SENSITIVE_KEYS="${SENSITIVE_KEYS},MAIL_PASSWORD"
    MAIL_PASSWORD=
    
    # Indicates type of encryption (none, ssl or tls) should be used to communicate with 
      mail server.
    MAIL_SMTP_ENCRYPTION=none
    
    # If set to true, sends a message in HTML format.
    HTML_MESSAGE_FORMAT=false
    
    # Specifies 'from' address on sent mail in RFC822 format, if supported by mail server.
    MAIL_FROM=myovirtengine@mycompany.com
    
    # Specifies 'reply-to' address on sent mail in RFC822 format.
    MAIL_REPLY_TO=myusername@mycompany.com
    
    # Interval to send smtp messages per # of IDLE_INTERVAL
    MAIL_SEND_INTERVAL=1
    
    # Amount of times to attempt sending an email before failing.
    MAIL_RETRIES=4

    ノート:

    ovirt-engine-notifier.confファイル内のイベント通知に使用できるその他のパラメータの詳細は、「oVirtドキュメント」を参照してください。

  5. ovirt-engine-notifierサービスを有効化して再起動し、変更内容をアクティブ化します。

    # systemctl daemon-reload
    # systemctl enable ovirt-engine-notifier.service
    # systemctl restart ovirt-engine-notifier.service

管理ポータルでのイベント通知の作成

イベント通知を作成する前に、着信自動メッセージを処理してこれらのメッセージを配信リストに配信できる電子メール・サーバーにアクセスできる必要があります。 また、エンジンでイベント通知サービスを構成する必要もあります。 詳細は、「エンジンに対するイベント通知サービスの構成」を参照してください

管理ポータルでイベント通知を作成するには:

  1. 管理」に移動して「ユーザー」をクリックします。

    ユーザー」ペインが開きます。

  2. ユーザー名」列で、ユーザーの名前をクリックして、ユーザーの詳細ビューを表示します。

    ノート:

    ユーザーは、作成されて適切な権限が割り当てられるまで、管理ポータルに表示されません。 詳細は、「新規ユーザー・アカウントの作成」を参照してください。

  3. イベント通知タブをクリックします。

  4. 「イベントの管理」をクリックします。

    イベント通知の追加ダイアログ・ボックスが開きます。

  5. 通知する個々のイベントまたはイベント・トピック領域の横にあるチェック・ボックスを選択して、通知を作成するイベントを選択します。

    通知に使用可能なイベントは、複数のトピック領域にグループ化されています。 デフォルトでは、最上位レベルのトピック領域(一般ホスト・イベントなど)のチェック・ボックスを選択すると、そのトピック領域のすべてのイベントが選択されます。 オプションで、すべて開くまたはすべて閉じるをクリックして、すべてのイベント・トピック領域を展開または縮小できます。 また、特定の最上位レベルのトピック領域の横にある矢印アイコンをクリックすると、そのトピック領域に関連付けられたイベントを展開または縮小できます。

  6. メール受信者」フィールドに、電子メール・アドレスを入力します。

  7. 変更を保存する場合は、「OK」をクリックします。

管理ポータルでのイベント通知の取消し

管理ポータルでイベント通知を取り消すには:
  1. 管理」に移動して「ユーザー」をクリックします。

    ユーザー」ペインが開きます。

  2. ユーザー名」列で、ユーザーの名前をクリックして、ユーザーの詳細ビューを表示します。

  3. イベント通知タブをクリックします。

  4. 「イベントの管理」をクリックします。

    イベント通知の追加ダイアログ・ボックスが開きます。

  5. すべて開くをクリックするか、またはトピック固有の展開オプションをクリックしてイベントを表示します。

  6. 該当するチェック・ボックスの選択を解除して、該当するイベントの通知を取り消します。

  7. 「OK」をクリックして変更を保存します。

SNMPトラップを送信するエンジンの構成

SNMPトラップを1つ以上の外部SNMPマネージャに送信するようにManagerを構成できます。 SNMPトラップには、仮想化環境を監視するために使用するシステム・イベント情報が含まれます。 SNMPマネージャに送信されるトラップの数とタイプはエンジン内で定義できます。

このタスクを実行する前に、トラップを受信する1つ以上の外部SNMPマネージャを構成し、次の詳細を確認しておく必要があります。

  • SNMPマネージャとして機能するマシンのIPアドレスまたは完全修飾ドメイン名。 オプションで、SNMPマネージャがトラップ通知を受信するポートを決定します。デフォルトのUDPポートは162です。

  • SNMPコミュニティ。 複数のSNMPマネージャが1つのコミュニティに属することができます。 管理システムおよびエージェントは、同じコミュニティ内にある場合にのみ通信できます。 デフォルトのコミュニティはpublicです。

  • アラートのトラップ・オブジェクト識別子。 エンジンでは、1.3.6.1.4.1.2312.13.1.1のデフォルトOIDが提供されます。 このOIDが定義されると、イベント情報が追加されてすべてのトラップ・タイプがSNMPマネージャに送信されます。

    ノート:

    • デフォルト・トラップを変更すると、生成されたトラップがエンジンの管理情報ベースに準拠しなくなります。

    • エンジンは、/usr/share/doc/ovirt-engine/mibs/OVIRT-MIB.txtおよび/usr/share/doc/ovirt-engine/mibs/REDHAT-MIB.txtの管理情報ベースを提供します。 SNMPマネージャにMIBを読み込んでから続行してください。

エンジンでSNMPトラップを構成するには:

  1. Managerを実行しているホストにログインします。

  2. エンジンで、SNMP構成ファイルを作成します。
    # vi /etc/ovirt-engine/notifier/notifier.conf.d/20-snmp.conf

    デフォルトのSNMP構成値は、次のディレクトリ・パスにあるイベント通知構成ファイル(ovirt-engine-notifier.conf)のエンジンに存在: / usr/share/ovirt-engine/services/ovirt-engine-notifier/ovirt-engine-notifier.conf. このステップで指定する値は、このファイルで提供されるデフォルト値またはサンプル値に基づいています。 構成設定が再起動後も保持されるようにするには、ovirt-engine-notifier.confファイルを編集するのではなく、SNMP構成(20-snmp.conf)のオーバーライド・ファイルを定義します。詳細は、「エンジンでのイベント通知サービスの構成」を参照してください。

  3. SNMPマネージャ、SNMPコミュニティおよびOIDを次の形式で指定します。
    SNMP_MANAGERS="manager1.example.com manager2.example.com:162"
    SNMP_COMMUNITY=public
    SNMP_OID=1.3.6.1.4.1.2312.13.1.1
    20-snmp.confファイルでは、次の値を構成できます。
    #-------------------------#
    # SNMP_TRAP Notifications #
    #-------------------------#
    # Send v2c snmp notifications
    
    # Minimum SNMP configuration
    #
    # Create /etc/ovirt-engine/notifier/notifier.conf.d/20-snmp.conf with:
    # SNMP_MANAGERS="host"
    # FILTER="include:*(snmp:) ${FILTER}"
    
    # Default whitespace separated IPv4/[IPv6]/DNS list with optional port, default is 162.
    # SNMP_MANAGERS="manager1.example.com manager2.example.com:164"
    SNMP_MANAGERS=
    
    # Default SNMP Community String.
    SNMP_COMMUNITY=public
    
    # SNMP Trap Object Identifier for outgoing notifications.
    # { iso(1) org(3) dod(6) internet(1) private(4) enterprises(1) redhat(2312) ovirt(13) 
      engine(1) notifier(1) }
    #
    # Note: changing the default will prevent generated traps from complying with 
      OVIRT-MIB.txt.
    SNMP_OID=1.3.6.1.4.1.2312.13.1.1
    
    # Default SNMP Version. SNMP version 2 and version 3 traps are supported
    # 2 = SNMPv2
    # 3 = SNMPv3
    SNMP_VERSION=2
    
    # The engine id used for SNMPv3 traps
    SNMP_ENGINE_ID=
    
    # The user name used for SNMPv3 traps
    SNMP_USERNAME=
    
    # The SNMPv3 auth protocol. Supported values are MD5 and SHA.
    SNMP_AUTH_PROTOCOL=
    
    # The SNMPv3 auth passphrase, used when SNMP_SECURITY_LEVEL is set to AUTH_NOPRIV 
      and AUTH_PRIV
    SNMP_AUTH_PASSPHRASE=
    
    # The SNMPv3 privacy protocol. Supported values are AES128, AES192 and AES256.
    # Be aware that AES192 and AES256 are not defined in RFC3826, so please verify
    # that your SNMP server supports those protocols before enabling them.
    SNMP_PRIVACY_PROTOCOL=
    
    # The SNMPv3 privacy passphrase, used when SNMP_SECURITY_LEVEL is set to AUTH_PRIV
    SNMP_PRIVACY_PASSPHRASE=
    
    # The SNMPv3 security level.
    # 1 = NOAUTH_NOPRIV
    # 2 = AUTH_NOPRIV
    # 3 = AUTH_PRIV
    SNMP_SECURITY_LEVEL=1
    
    # SNMP profile support
    #
    # Multiple SNMP profiles are supported.
    # Specify profile settings by using _profile suffix,
    # for example, to define a profile to sent specific
    # message to host3, specify:
    # SNMP_MANAGERS_profile1=host3
    # FILTER="include:VDC_START(snmp:profile1) ${FILTER}"
  4. SNMPマネージャに送信するイベントを定義します。

    デフォルトでは、次のデフォルト・フィルタがovirt-engine-notifier.confファイルに定義されています。このフィルタをオーバーライドしたり、オーバーライド・フィルタを適用しない場合、通知は送信されません。
    FILTER="exclude:\*"
    次に、イベント・フィルタの他の一般的な例を示します。
    • すべてのイベントをデフォルトSNMPプロファイルに送信します。
      FILTER="include:\*(snmp:) ${FILTER}"
    • 重大度がERRORまたはALERTのすべてのイベントをデフォルトのSNMPプロファイルに送信します。
      FILTER="include:\*:ERROR(snmp:) ${FILTER}"
       FILTER="include:\*:ALERT(snmp:) ${FILTER}"
  5. ファイルを保存します。

  6. ovirt-engine-notifierサービスを起動し、このサービスが起動時に起動されることを確認します。
     # systemctl start ovirt-engine-notifier.service
     # systemctl enable ovirt-engine-notifier.service
  7. (オプション)トラップがSNMPマネージャに送信されていることを検証します。