機械翻訳について

3 管理タスク

Oracle Linux Virtualization Managerの一般的な管理タスクは次のとおりです。 これらのトピックの概念についての情報は、『Oracle Linux Virtualization Managerアーキテクチャおよびプランニング・ガイド』を参照してください。

その他の管理タスクについては、oVirtのドキュメントを参照してください。

データベース

Oracle Linux Virtualization Managerは、インストール時にengineというPostgreSQLデータベースを作成します。 オプションで、データ・ウェアハウスをインストールした場合は、ovirt_engine_historyデータベースを使用できます。

場合によっては、これらのデータベースでメンテナンスを実行する必要があります。 エンジン・バキューム・ツールを実行すると、表が更新され、デッド行が削除されます。これにより、ディスク領域を再利用できます。

データベース記憶域の再利用

エンジン真空ツールを使用してデータベース記憶域を再利用するには、エンジン・ホストに「ルート」ユーザーとしてログインし、oVirt環境の管理資格証明を指定する必要があります。

  1. 現在のデータベース・サイズを確認します:
    # /usr/share/ovirt-engine/dbscripts/engine-psql.sh -c "SELECT datname as db_name, pg_size_pretty(pg_database_size(datname)) as db_usage FROM pg_database"
  2. エンジン・データベースを真空にします。
    1. ovirt-engine、ovirt-engine-dwhdおよびgrafana-serverサービスを停止します:
      # systemctl stop ovirt-engine ovirt-engine-dwhd grafana-server
    2. エンジン・データベースをバックアップします:
      # grep 'ENGINE_DB_PASSWORD=' /etc/ovirt-engine/engine.conf.d/10-setup-database.conf
      
      # PGPASSWORD=your-engine-db-pw /usr/bin/pg_dump \
       -E UTF8 \
       --disable-dollar-quoting \
       --disable-triggers \
       -U engine \
       -h localhost \
       -p 5432 \
       --format=custom \
       --file=/var/lib/ovirt-engine/backups/engine-$(date +%Y%m%d%H%M%S).$$.dump engine
    3. エンジン・データベースを掃除します:
      /usr/share/ovirt-engine/bin/engine-vacuum.sh -f -v
    4. ovirt-engine、ovirt-engine-dwhdおよびgrafana-serverサービスを起動します:
      # systemctl start ovirt-engine ovirt-engine-dwhd grafana-server
  3. データ・ウェアハウス(ovirt_engine_history)データベースを掃除します。
    1. ovirt-engine、ovirt-engine-dwhdおよびgrafana-serverサービスを停止します:
      # systemctl stop ovirt-engine ovirt-engine-dwhd grafana-server
    2. ovirt_engine_historyデータベースをバックアップします:
      # grep 'DWH_DB_PASSWORD=' /etc/ovirt-engine/engine.conf.d/10-setup-dwh-database.conf
      
      # PGPASSWORD=your-datawarehouse-db-pw /usr/bin/pg_dump \
       -E UTF8 \
       --disable-dollar-quoting \
       --disable-triggers \
       -U ovirt_engine_history \
       -h localhost \
       -p 5432 \
       --format=custom \
       --file=/var/lib/ovirt-engine-dwh/backups/dwh-$(date +%Y%m%d%H%M%S).$$.dump ovirt_engine_history
    3. ovirt_engine_historyデータベースを真空にします:
      # /usr/share/ovirt-engine-dwh/bin/dwh-vacuum.sh -f -v
    4. ovirt-engine、ovirt-engine-dwhdおよびgrafana-serverサービスを起動します:
      # systemctl start ovirt-engine ovirt-engine-dwhd grafana-server
  4. 真空後のデータベースのサイズを確認します:
    # /usr/share/ovirt-engine/dbscripts/engine-psql.sh -c "SELECT datname as db_name, pg_size_pretty(pg_database_size(datname)) as db_usage FROM pg_database"

データ・センター

Oracle Linux Virtualization Managerは、インストール時にデフォルトのデータ・センターを作成します。 デフォルトのデータ・センターを構成するか、適切に名前が付けられた新しいデータ・センターを設定できます。

データ・センターでは、仮想化環境で動作する、機能するクラスタ、ホストおよび記憶域ドメインが必要です。

新規データ・センターの作成

  1. 計算」に移動して、「データ・センター」を選択します。

    データ・センター」ペインが開きます。

  2. 「新規」をクリックします。

  3. 「名前」およびオプションの「説明」を入力します。

  4. 該当するドロップダウン・メニューから、データ・センターの記憶域の「タイプ」、「互換バージョン」および割当てモードを選択します。

  5. OK」をクリックして、データ・センターを作成します。

    新しいデータ・センターが仮想化環境に追加され、「データ・センター - ガイド」メニューが開き、データ・センターが動作するために構成する必要のあるエンティティが順を追って示されます。

    新しいデータ・センターは、クラスタ、ホストおよびストレージ・ドメインが構成されるまで、Uninitialized状態のままです。

    これらのエンティティの構成は、後で構成ボタンをクリックして延期できます。 これらのエンティティの構成を再開するには、個々のデータ・センターを選択して「その他のアクション」をクリックし、ドロップダウン・メニューから「ガイド」を選択します。

クラスタ

Oracle Linux Virtualization Managerは、インストール時にデフォルトのデータ・センターにデフォルトのクラスタを作成します。 デフォルトのクラスタを構成するか、適切な名前の新しいクラスタを設定できます。

新しいクラスタの作成

  1. 計算」に移動して、「クラスタ」を選択します。

    クラスタ」ペインが開きます。

  2. 「新規」をクリックします。

    新規クラスタ」ダイアログ・ボックスが開き、サイドバーで「一般」タブが選択されます。

  3. データ・センター」ドロップダウン・リストから、クラスタに関連付けるデータ・センターを選択します。

  4. 名前」フィールドに、データ・センターの適切な名前を入力します。

  5. 説明」フィールドに、クラスタの適切な説明を入力します。

  6. 管理ネットワーク」ドロップダウン・リストから、管理ネットワーク・ロールを割り当てるネットワークを選択します。

  7. CPUアーキテクチャ」および「CPUタイプ」ドロップダウン・リストから、クラスタに追加されるホストと一致するCPUプロセッサ・ファミリおよび最小CPUプロセッサを選択します。

    IntelとAMDの両方のCPUタイプについて、リストされたCPUモデルは最も古いものから最新のものへと論理的な順序で並べられています。 クラスタに異なるCPUモデルのホストが含まれる場合は、リストから最も古いCPUモデルを選択しすべてのホストがそのクラスタで動作するようにします。

  8. 互換バージョン」ドロップダウン・リストから、クラスタの互換性バージョンを選択します。

    ノート:

    互換性バージョンの詳細については、「アップグレード後のデータ・センターとクラスタの互換バージョンの変更」を参照してください。

  9. スイッチ・タイプ」ドロップダウン・リストから、クラスタで使用するスイッチのタイプを選択します。

    デフォルトでは、ドロップダウン・リストからLinux Bridgeが選択されます。

  10. ファイアウォール・タイプドロップダウン・リストから、クラスタ内のホストのファイアウォール・タイプを選択します。

    使用可能なファイアウォール・タイプは、iptablesまたはfirewalldのいずれかです。 デフォルトでは、ドロップダウン・リストからfirewalldオプションが選択されます。

  11. 仮想サービスの有効化チェック・ボックスがデフォルトで選択されています。 このチェック・ボックスでは、クラスタに仮想マシン・ホストが移入されることを指定します。

  12. (オプション)他のタブを確認して、クラスタをさらに構成します。

    1. サイドバーの「最適化」タブをクリックして、クラスタのメモリー・ページ共有しきい値を選択し、オプションでクラスタ内のホストのCPUスレッド処理およびメモリー・バルーンを有効にします。 「デプロイメントの最適化」を参照してください。

    2. サイドバー・メニューの「移行ポリシー」タブをクリックして、クラスタの仮想マシンの移行ポリシーを定義します。

    3. サイドバーの「スケジュール・ポリシー」タブをクリックして、オプションでスケジュール・ポリシーの構成、スケジューラ最適化設定の構成、クラスタ内のホストに対する信頼できるサービスの有効化、HA予約の有効化、カスタム・シリアル番号ポリシーを追加します。

    4. サイドバーのフェンシング・ポリシータブをクリックして、クラスタ内のフェンシングを有効または無効にし、フェンシング・オプションを選択します。

    5. サイドバーのMACアドレス・プールタブをクリックして、クラスタのデフォルト・プール以外のMACアドレス・プールを指定します。

  13. OK」をクリックして、データ・センターを作成します。

    クラスタが仮想化環境に追加され、「クラスタ - ガイド」メニューが開き、クラスタが動作するために構成する必要のあるエンティティが順を追って示されます。

    これらのエンティティの構成は、後で構成ボタンをクリックして延期できます。 これらのエンティティの構成を再開するには、個々のクラスタを選択して「その他のアクション」をクリックし、ドロップダウン・メニューから「ガイド」を選択します。

ホスト

ホストはハイパーバイザとも呼ばれ、仮想マシンが実行される物理サーバーです。 フル仮想化は、カーネル・ベースの仮想マシン(KVM)と呼ばれるロード可能なLinuxカーネル・モジュールを使用して提供されます。 KVMは、複数の仮想マシンを同時にホストできます。 仮想マシンは、ホスト・マシン上の個々のLinuxプロセスおよびスレッドとして動作し、エンジンによってリモートで管理されます。

ホストのメンテナンス・モードへの移動

ソフトウェア更新のネットワーク構成およびデプロイメントなどの一般的なメンテナンス・タスクを実行するとき、またはリブートやネットワーキングや記憶域の問題など、VDSMが正常に動作を停止する可能性があるイベントの前に、ホストをメンテナンス・モードにします。

ホストをメンテナンス・モードにすると、エンジンは実行中のすべての仮想マシンを代替ホストに移行しようとします。 ライブ移行の標準前提条件が適用されます。特に、移行された仮想マシンを実行するために、クラスタに少なくとも1つのアクティブなホストが存在する必要があります。

ノート:

ホストに固定され、移行できない仮想マシンはシャットダウンされます。 ホストの詳細ビューの「仮想マシン」タブで「ホストに固定」をクリックすると、ホストに固定されている仮想マシンを確認できます。

  1. 「コンピュート」をクリックし、「ホスト」を選択します。

  2. 目的のホストを選択します。

  3. 「管理」をクリックし、「メンテナンス」を選択します。

  4. オプションで、ホストをメンテナンス・モードに移行するための「事由」を入力します。これはログに表示され、ホストが再度アクティブ化されるときに表示されます。 次に、「OK」をクリックします。

    ホスト・メンテナンス事由フィールドは、クラスタ設定で有効になっている場合にのみ表示されます。

  5. オプションで、Glusterをサポートするホストに必要なオプションを選択します。

    デフォルト・チェックを回避するには、「Gluster Quorumの無視」および「自己診断の検証」オプションを選択します。 デフォルトでは、ホストがメンテナンス・モードに移行したときに、Gluster定足数が失われないことを確認します。 また、エンジンは、ホストをメンテナンス・モードに移行することによって影響を受ける自己修復アクティビティが存在しないことも確認します。 Glusterの定足数が失われたり、影響を受ける自己修復アクティビティがある場合、エンジンはホストをメンテナンス・モードにしません。 ホストをメンテナンス・モードにするその他の方法がない場合のみ、このオプションを使用します。

    ホストをメンテナンス・モードに移行中にすべてのGlusterサービスを停止するには、「Glusterサービスの停止」オプションを選択します。

    これらのフィールドは、選択したホストがGlusterをサポートしている場合にのみホスト・メンテナンス・ウィンドウに表示されます。

  6. OKをクリックして、メンテナンス・モードを開始します。

  7. 実行中のすべての仮想マシンが代替ホストに移行されます。 ホストが記憶域プール・マネージャ(SPM)の場合、SPMロールは別のホストに移行されます。 ホストの「ステータス」フィールドがPreparing for Maintenanceに変わり、操作が正常に完了するとMaintenanceに変わります。 ホストがメンテナンス・モードの間、VDSMは停止しません。

    ノート:

    仮想マシンで移行が失敗した場合は、「管理」をクリックし、ホストで「アクティブ化」を選択して、メンテナンス・モードにする操作を停止してから、仮想マシンの「移行の取消」をクリックして移行を停止します。

メンテナンス・モードからのホストのアクティブ化

使用する前に、ホストをメンテナンス・モードからアクティブ化する必要があります。

  1. 「コンピュート」をクリックし、「ホスト」を選択します。

  2. ホストを選択します。

  3. 「管理」をクリックし、「アクティブ化」を選択します。

  4. 完了すると、ホスト・ステータスがUnassignedに変わり、最後にUpに変わります。

    これで、ホスト上で仮想マシンを実行できます。 ホストからメンテナンス・モードに移行されたときにホストから移行された仮想マシンは、そのアクティブ化時に自動的にホストに戻されることはありませんが、手動で移行できます。 ホストがメンテナンス・モードになる前に記憶域プール・マネージャ(SPM)だった場合、ホストがアクティブ化されるときにSPMロールが自動的に返されません。

ホストの削除

新しいバージョンにアップグレードするときに、ホストをOracle Linux Virtualization Manager環境から削除する必要がある場合があります。

  1. 「コンピュート」をクリックし、「ホスト」を選択してホストを選択します。

  2. ホストを選択します。

  3. 「管理」をクリックし、「メンテナンス」を選択します。

  4. ホストがメンテナンス・モードになったら、「削除」をクリックします。

    ホストがGluster Storageクラスタの一部であり、ボリューム・ブリックを持っている場合、またはホストが応答性のない場合は、「強制削除」チェック・ボックスを選択します。

  5. 「OK」をクリックします。

ネットワーク

Oracle Linux Virtualization Managerでは、仮想マシンのカスタムvNICを作成できます。

ノート:

ボンディングされたインタフェース上でVLANを使用する予定の場合は、手順についてMy Oracle Support (MOS)の記事「NICで802.1 q VLANを構成する方法(ドキュメントID 1642456.1)」を参照してください。

論理ネットワークの作成

論理ネットワークを作成するには:

  1. ネットワーク」に移動して、「ネットワーク」をクリックします。

  2. ネットワーク」ペインで、「新規」をクリックします。

    新規論理ネットワークダイアログ・ボックスが開き、サイドバーで「一般」タブが選択されます。

  3. データ・センター」ドロップダウン・リストから、ネットワークのデータ・センターを選択します。

    「デフォルト」データ・センターは、ドロップダウン・リストで事前に選択されています。

    新しいデータ・センターまたは新しいクラスタを作成する手順は、「データ・センター」タスクまたは「クラスタ」タスクを参照してください。

  4. 名前」フィールドに、新しいネットワークの名前を入力します。

  5. 「ネットワーク・パラメータ」セクションの下では、デフォルトで「VMネットワーク」チェック・ボックスが選択されています。 新しい仮想マシン・ネットワークを作成する場合は、「VMネットワーク」チェック・ボックスを選択したままにします。

  6. (オプション)新規論理ネットワークサイドバーの他のタブから新しい論理ネットワークのその他の設定を構成します。

  7. 「OK」をクリックしてネットワークを作成します。

KVMホストへの論理ネットワークの割当て

論理ネットワークをKVMホストに割り当てるには:

  1. 計算」に移動して、「ホスト」をクリックします。

    「ホスト」ペインが開きます。

  2. 名前」列の下で、ネットワークを追加するホストの名前をクリックします。

    次のスクリーンショットは、ホスト・ペインを示し、ホスト上のネットワークを設定する際にクリックする必要がある場所を強調するために、ホストの名前を赤い長方形のボックスで強調表示しています。

    図3-1 「ホスト」ペイン


    前述のテキストで説明されているホスト・ペイン。

    ホスト名をクリックすると、ホストの詳細を示す「一般」タブが開きます。

  3. 横のメニューで「ネットワーク・インタフェース」タブをクリックします。

    ネットワーク・インタフェース」タブが開き、使用可能なホスト上のネットワーク・インタフェースの詳細が表示されます。

  4. 追加するネットワークに使用するネットワーク・インタフェースを、対応するインタフェースの行をクリックして強調表示します。

  5. ホスト・ネットワークの設定をクリックします。

    ホスト・ネットワークの設定ダイアログ・ボックスが開きます。 ホスト上の物理インタフェースは「インタフェース」列にリストされ、インタフェースに割り当てられているすべての論理ネットワークは割当て済論理ネットワーク列に表示されます。 未割当ての論理ネットワークは、未割当て論理ネットワーク列の下に表示されます。

    次のスクリーンショットの例では、vm_pubという名前の論理ネットワークが「未割当ての論理ネットワーク」列の下に表示されます。


    前述のテキストで説明されている、サンプル・ホストのホスト・ネットワークの設定ダイアログ・ボックス。
  6. 追加するネットワークを未割当て論理ネットワーク列から選択します。ネットワークを左クリックし、マウスボタンを押したまま、ネットワークを追加する使用可能なネットワーク・インタフェースの右にあるボックスまでネットワークをドラッグします。

    または、ネットワークを右クリックして、ドロップダウン・リストから使用可能なインタフェースを選択することもできます。

    たとえば、vm_pubという名前の論理ネットワークは、eno2という名前の使用可能なネットワーク・インタフェースに割り当てられます。 次のスクリーンショットでは、「未割当ての論理ネットワーク」からこのインタフェースにネットワークをドラッグすると、eno2という名前のネットワーク・インタフェースに割り当てられている「割り当てられた論理ネットワーク」列の下に、vm_pubという名前のネットワークが表示されます。

    図3-3 「ホストの設定」ダイアログ・ボックス: 割り当てられた論理ネットワーク


    前述のテキストで説明されている、サンプルの論理ネットワークがネットワーク・インタフェースに割り当てられた後のホスト・ネットワークの設定ダイアログ・ボックス。
  7. ネットワーク設定を編集したら、「OK」をクリックして設定を保存します。

  8. OK」をクリックしてネットワークを追加します。

仮想マシンのためのvNICプロファイルのカスタマイズ

仮想マシンのvNICをカスタマイズするには:

  1. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、仮想マシン・ネットワークを追加する仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. ネットワーク・インタフェース」タブをクリックします。

    ネットワーク・インタフェース」タブが開き、ネットワークに使用可能なネットワーク・インタフェースが表示されます。

  4. 個々のインタフェースの行をクリックしてネットワーク・インタフェースを強調表示し、インタフェース・リストの右上にある「編集」をクリックします。

    ネットワーク・インタフェースの編集」ダイアログ・ボックスが開きます。

  5. ネットワーク・インタフェースの編集」ダイアログ・ボックスで、次のフィールドを更新します。
    1. プロファイル」ドロップダウン・リストから、仮想マシンに追加するネットワークを選択します。

    2. カスタムMACアドレス」チェック・ボックスをクリックし、この仮想マシンに割り当てられるMACアドレスをテキスト入力フィールドに入力するか、MACアドレスを更新します。

  6. 仮想マシンのネットワーク・インタフェース設定の編集が完了したら、「OK」をクリックします。

  7. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開きます。

    重要:

    仮想マシンはデータ・センター/クラスタ内のいずれのホストでも起動できるため、すべてのホストでそのNICの1つに、カスタマイズされたVMネットワークが割り当てられている必要があります。 仮想マシンを起動する前に、このカスタマイズされたVMネットワークを各ホストに割り当てるようにしてください。 詳細については、「KVMホストへの論理ネットワークの割当て」を参照してください。

  8. ネットワークを追加した仮想マシンを強調表示してから、「実行」をクリックして仮想マシンを起動します。

    仮想マシンの左側にある赤い下向き矢印アイコンが緑色になり、仮想マシンがネットワーク上で稼働しているときは「ステータス」列にUPと表示されます。

ホスト・ネットワーク・インタフェースへの論理ネットワークのアタッチと構成

物理ホスト・ネットワーク・インタフェースの設定を変更したり、物理ホスト・ネットワーク・インタフェース間で管理ネットワークを移動したり、論理ネットワークを物理ホスト・ネットワーク・インタフェースに割り当てたりできます。

後述するステップを開始する前に、次のことに注意してください。

  • ホストのIPアドレスを変更するには、ホストを削除してから再追加する必要があります。

  • ホストのVLAN設定を変更するには、oVirtドキュメントのEditing a Host’s VLAN Settingsを参照してください。

  • 外部プロバイダによって提供される論理ネットワークを物理ホスト・ネットワーク・インタフェースに割り当てることはできません。このようなネットワークは、仮想マシンが必要とするときに動的にホストに割り当てられます。

  • スイッチがLink Layer Discovery Protocol (LLDP)情報を提供するように構成されている場合は、物理ネットワーク・インタフェース上にカーソルを置くと、スイッチ・ポートの現在の構成を表示できます。

    ノート:

    論理ネットワークを割り当てる前に、構成を確認します。 どのポートおよびホストのインタフェースにパッチを適用するかを検出するには、「ポートの説明(TLVタイプ4)」および「システム名(TLVタイプ5)」を確認してください。 「ポートVLAN ID」は、タグ付けされていないEthernetフレームのスイッチ・ポートに構成されているネイティブVLAN IDを示します。 スイッチ・ポート上で構成されたすべてのVLANは、「VLAN名」VLAN IDの組み合わせとして表示されます。

ホスト・ネットワーク・インタフェースを編集して論理ネットワークを割り当てるには:

  1. 「コンピュート」 「ホスト」をクリックします。

  2. ホストの名前をクリックします。 詳細ビューが開きます。

  3. ネットワーク・インタフェース」タブをクリックします。

  4. ホスト・ネットワークの設定をクリックします。

  5. オプションで、ホスト・ネットワーク・インタフェースの上にカーソルを置くと、スイッチによって提供される構成情報が表示されます。

  6. 論理ネットワークを選択し、物理ホスト・ネットワーク・インタフェースの横にある「割当て済論理ネットワーク」領域にドラッグすることによって、論理ネットワークを物理ホスト・ネットワーク・インタフェースに接続します。

    NICが複数の論理ネットワークに接続されている場合、VLAN以外のネットワークは1つだけです。 他のすべての論理ネットワークは一意のVLANである必要があります。

  7. ネットワークを構成します。

    1. 割り当てられた論理ネットワークの上にカーソルを置き、鉛筆アイコンをクリックします。 これにより、管理ネットワークの編集ウィンドウが開きます。

    2. IPv4またはIPv6を構成します。

      • IPv4タブから、「ブート・プロトコル」を設定します。 「静的」を選択した場合は、IP「ネットマスク / ルーティング・プレフィクス」および「ゲートウェイ」を入力します。

      • IPv6タブから、次の手順を実行します。
        • 「ブート・プロトコル」「静的」に設定します。

        • ルーティング接頭辞として、スラッシュと小数を使用して接頭辞の長さを入力します。 たとえば: /48 IP:

        • 「IP」フィールドに、ホスト・ネットワーク・インタフェースの完全なIPv6アドレスを入力します。 たとえば: 2001:db8::1:0:0:6

        • 「ゲートウェイ」フィールドに、ソース・ルーターのIPv6アドレスを入力します。 たとえば: 2001:db8::1:0:0:1

      ノート:

      ホストの管理ネットワークIPアドレスを変更する場合は、新しいIPアドレスを構成するためにホストを再インストールする必要があります。

      各論理ネットワークには、管理ネットワーク・ゲートウェイとは別のゲートウェイを定義できます。 これにより、論理ネットワークに到着するトラフィックは、管理ネットワークで使用されるデフォルト・ゲートウェイではなく、論理ネットワークのゲートウェイを使用して転送されます。

      管理ネットワークに同じIPスタックを使用するようにクラスタ内のすべてのホストを設定します(IPv4またはIPv6のみ)。

    3. ネットワーク・ブリッジを構成するには、「カスタム・プロパティ」タブをクリックし、リストからbridge_optsを選択し、key = valueの構文で有効なキーと値を入力します。

      次に有効なキーとその値の例を示します。

      forward_delay=1500
      group_addr=1:80:c2:0:0:0
      group_fwd_mask=0x0
      hash_max=512
      hello_time=200
      max_age=2000
      multicast_last_member_count=2
      multicast_last_member_interval=100
      multicast_membership_interval=26000
      multicast_querier=0
      multicast_querier_interval=25500
      multicast_query_interval=13000
      multicast_query_response_interval=1000
      multicast_query_use_ifaddr=0
      multicast_router=1
      multicast_snooping=1
      multicast_startup_query_count=2
      multicast_startup_query_interval=3125

      複数のエントリは空白文字で区切ります。

    4. イーサネット・プロパティを構成するには、「カスタム・プロパティ」タブをクリックし、リストからethtool_optsを選択し、ethtoolのコマンド行引数の形式を使用して有効な値を入力します。 たとえば:

      --coalesce em1 rx-usecs 14 sample-interval 3 --offload em2 rx on lro on tso off \
      --change em1 speed 1000 duplex half

      ワイルドカードを使用して、次のようにネットワークのすべてのインタフェースに同じオプションを適用できます。

      --coalesce * rx-usecs 14 sample-interval 3

      ethtool_optsオプションはデフォルトでは使用できません。エンジン構成ツールを使用して追加する必要があります。 ethtoolプロパティを表示するには、コマンド行からman ethtoolと入力してマニュアル・ページを開きます。 詳細は、oVirtドキュメントのHow to Set Up oVirt Engine to Use Ethtoolを参照してください。

    5. ファイバ・チャネル・オーバー・イーサネット(FCoE)を構成するには、「カスタム・プロパティ」タブをクリックし、リストからfcoeを選択し、enable=yesと入力します。 複数のエントリは空白文字で区切ります。

      fcoeオプションはデフォルトでは使用できません。エンジン構成ツールを使用して追加する必要があります。 詳細は、oVirtドキュメントのHow to Set Up oVirt Engine to Use FCoEを参照してください。

    6. ホストで使用されるデフォルト・ネットワークを管理ネットワーク(ovirtmgmt)から非管理ネットワークに変更するには、非管理ネットワークのデフォルト・ルートを構成します。 詳細は、oVirtドキュメントのConfiguring a Non-Management Logical Network as the Default Routeを参照してください。

    7. 論理ネットワーク定義がホスト上のネットワーク構成と同期していない場合は、ネットワークの同期チェック・ボックスを選択します。 非同期ホストとその同期方法の詳細は、oVirtドキュメントのSynchronizing Host Networksを参照してください。

  8. ネットワーク接続を確認するには、ホストとエンジン間の接続の確認チェック・ボックスを選択します。

    ノート:

    ホストはメンテナンス・モードである必要があります。
  9. 「OK」をクリックします。

    ノート:

    ホストのすべてのネットワーク・インタフェース・カードが表示されない場合は、「管理」「機能のリフレッシュ」の順にクリックして、そのホストで使用可能なネットワーク・インタフェース・カードのリストを更新します。

ストレージ

Oracle Linux Virtualization Managerでは、仮想マシンのディスク・イメージ、ISOファイルおよびスナップショットに対して一元化された記憶域システムを使用します。 NFS (Network File System)、iSCSI (Internet Small Computer System Interface)、またはFCP (Fibre Channel Protocol) 記憶域を使用できます。 ホストに直接アタッチされるローカル記憶域を構成することもできます。

次の管理タスクでは、ローカル、NFS、iSCSI、およびFCP記憶域の準備と追加について説明します。

KVMホストでのローカル記憶域の使用

開始する前に、次の前提条件が満たされていることを確認してください。

  • ローカル記憶域にディスク領域を割り当てている。 物理ディスク全体をホストに割り当てることも、ディスクの一部を使用することもできます。

  • ローカル記憶域に使用されるブロック・デバイス・パス上にファイルシステムを作成した。 ローカル記憶域は常にルート・ディレクトリ(/root)とは別のファイル・システム上で定義する必要があります。

KVMホスト用のローカル記憶域の準備

KVMホスト用にローカル記憶域を準備するには:

  1. ホスト上のローカル記憶域に使用するディレクトリを作成します。

    Copy# mkdir -p /data/images
  2. ディレクトリに、vdsmユーザー(UID 36)およびkvmグループ(GID 36)への読取り/書込みアクセスを許可する権限があることを確認してください。

    Copy# chown 36:36 /data /data/images
    # chmod 0755 /data /data/images

    これで、ローカル記憶域を仮想化環境に追加できます。

ローカル記憶域を使用するためのKVMホストの構成

ローカル記憶域を使用するようにKVMホストを構成すると、KVMホストは他のホストを含むことができない新規データ・センターおよびクラスタに自動的に追加されます。 ローカル記憶域では、ライブ・マイグレーション、フェンシング、スケジューリングなどの機能は使用できません。

ローカル記憶域を使用するようにKVMホストを構成するには:

  1. 計算」に移動して「ホスト」をクリックします。

    「ホスト」ペインが開きます。

  2. ローカル記憶域ドメインを追加するホストを強調表示します。

  3. 管理」をクリックし、ドロップダウン・リストから「メンテナンス」を選択します。

    ホストが正常にメンテナンス・モードになると、ホストの「ステータス」列にMaintenanceと表示されます。

  4. ホストがMaintenanceモードになったら、「管理」をクリックし、ドロップダウン・リストからローカル記憶域の構成を選択します。

    ローカル記憶域の構成ペインが開き、「一般」タブが選択された状態になります。

  5. データ・センター」、「クラスタ」および「記憶域」フィールドの横にある「編集」をクリックして、ローカル記憶域ドメインを構成し、名前を付けます。

  6. ローカル記憶域のパスの設定テキスト入力フィールドで、ローカル記憶域ドメインのパスを指定します。

    詳細は、「KVMホスト用のローカル記憶域の準備」を参照してください。

  7. OK」をクリックして、ローカル記憶域ドメインを追加します。

    仮想化環境でローカル記憶域の追加が完了すると、ローカル記憶域に作成された新規データ・センター、クラスタおよび記憶域が、それぞれ「データ・センター」ペイン、「クラスタ」ペインおよび「記憶域」ペインに表示されます。

    タスク」をクリックして、ローカル記憶域をホストに追加するために実行される様々な処理ステップを監視できます。

    /var/log/ovirt-engine/engine.logファイルを表示して、ローカル記憶域ドメインが正常に追加されたことを確認することもできます。

NFS記憶域の使用

NFS共有を準備する前に、環境が次の条件を満たしていることを確認します。

  • ManagerおよびKVMホストのインストールでOracle Linux 8.8以降が実行されており、2つ以上のサーバーがマネージャ・ホストとして機能し、他のサーバーがKVMホストとして機能していることを確認します。

    インストールによって、/etc/passwdおよび/etc/groupディレクトリにvdsm:kvm (36:36)ユーザーおよびグループがそれぞれ作成されます。

    # grep vdsm /etc/passwd
    vdsm:x:36:36:Node Virtualization Manager:/:/sbin/nologin
    # grep kvm /etc/group
    kvm:x:36:qemu,sanlock
  • 仮想化環境でアクセス可能なOracle Linux NFSファイル・サーバー。

NFS記憶域の準備

NFS記憶域を準備するには:

  1. 仮想化環境にアクセスできるLinuxファイル・サーバーで、データ・ドメインに使用するディレクトリを作成します。

    # mkdir -p /nfs/olv_ovirt/data
  2. 新しいディレクトリで必要な権限を設定し、vdsmユーザー(UID 36)とkvmグループ(GID 36)への読取り/書込みアクセスを許可します。

    # chown -R 36:36 /nfs/olv_ovirt
    # chmod -R 0755 /nfs/olv_ovirt
  3. 次の形式を使用するNFSファイル・サーバーの/etc/exportsディレクトリに、新しく作成されたNFS共有のエントリを追加: full-path-of-share-created *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    たとえば:

    # vi /etc/exports
    # added the following entry
    /nfs/olv_ovirt/data *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    エントリが追加されていることを確認します。

    # grep "/nfs/olv_ovirt/data" /etc/exports
    /nfs/ol_ovirt/data *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    ドメイン共有をネットワーク上のすべてのサーバーにエクスポートしない場合(左カッコの前に*で示す)、次の形式を使用して、仮想化環境の個々のホストを指定できます: /nfs/ol_ovirt/data hostname-or-ip-address (rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

    たとえば:

    /nfs/olv_ovirt/data
    hostname
    (rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)
  4. NFS共有をエクスポートします。

    # exportfs -rv
  5. NFSファイル・サーバーで次のshowmountコマンドを使用して、追加されたエクスポートがOracle Linux Virtualization Managerホストで使用可能であることを確認します。

    # showmount -e | grep pathname-to-domain-share-added
    # showmount -e | grep ip-address-of-host
NFSデータ・ドメインのアタッチ

NFSデータ・ドメインをアタッチするには:

  1. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  2. 新規ドメイン」をクリックします。

    新規ドメイン」ダイアログ・ボックスが開きます。

  3. データ・センター」ドロップダウン・リストから、データ・ドメインをアタッチするデータ・センターを選択します。

  4. ドメイン機能ドロップダウン・リストから、「データ」を選択します。 デフォルトでは、ドロップダウン・リストで「データ」オプションが選択されています。

  5. 記憶域タイプドロップダウン・リストから、「NFS」を選択します。 デフォルトでは、ドロップダウン・リストで「NFS」オプションが選択されています。

    「記憶域タイプ」に「NFS」が選択されている場合、この記憶域タイプに適用可能なオプション(必要な「エクスポート・パス」オプションなど)が「新規ドメイン」ダイアログ・ボックスに表示されます。

  6. 使用するホストドロップダウン・リストから、データ・ドメインをアタッチするホストを選択します。

  7. エクスポート・パス」オプションで、記憶域データ・ドメインとして使用するNFSエクスポートへのリモート・パスをテキスト入力フィールドに入力します。

    エクスポート・パスオプションは、次のいずれかの形式で入力する必要があります : IP:/pathnameまたはFQDN:/pathname (たとえば、server.example.com:/nfs/olv_ovirt/data)。

    入力する/pathnameは、「NFS記憶域の準備」でデータ・ドメインのNFSファイル・サーバーに作成したパスと同じである必要があります。

  8. OK」をクリックして、NFS記憶域データ・ドメインをアタッチします。

    データ・ドメインへのイメージのアップロードの詳細は、「データ・ドメインへのイメージのアップロード」を参照してください。

iSCSI記憶域の使用

iSCSIストレージの場合、記憶域ドメインは既存のLUNで構成されるボリューム・グループから作成されます。 ボリューム・グループもLUNも、一度に複数の記憶域ドメインにアタッチすることはできません。

ホストとiSCSI記憶域の間に複数のネットワーク・パスがあると、ネットワーク・パスの障害によってホストの停止時間が生じるのを回避できます。iSCSIマルチパス化を使用すると、論理ネットワークとiSCSI記憶域接続のグループを作成および管理できます。 構成後、Managerは、iSCSIボンドの論理ネットワークに割り当てられているNICまたはVLANを使用して、データ・センター内の各ホストを各記憶域ターゲットに接続します。

冗長性のために、複数のターゲットおよび論理ネットワークを使用してiSCSIボンドを作成できます。

iSCSIデータ・ドメインのアタッチ

iSCSIストレージの場合、記憶域ドメインは既存のLUNで構成されるボリューム・グループから作成されます。

iSCSIデータ・ドメインを仮想化環境にアタッチするには:

  1. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  2. 新規ドメイン」をクリックします。

    新規ドメイン」ダイアログ・ボックスが開きます。

  3. 「データ・センター」ドロップダウン・リストから、データ・ドメインをアタッチするデータ・センターを選択します。

    「デフォルト」データ・センターは、ドロップダウン・リストで事前に選択されています。

    新しいデータ・センターまたは新しいクラスタを作成する手順は、「データ・センター」タスクまたは「クラスタ」タスクを参照してください。

  4. 名前」フィールドに、新しいデータ・ドメインの名前を入力します。

  5. ドメイン機能ドロップダウン・リストから、ドメイン機能を選択します。 デフォルトでは、ドロップダウン・リストの「データ」オプションが選択されています。

    この手順では、データ・ドメインを作成しているため、このステップでは、ドメイン関数として「データ」のままにします。

  6. 記憶域タイプドロップダウン・リストから、「iSCSI」を選択します。

  7. 「ホスト」ドロップダウン・リストから、データ・ドメインをアタッチするホストを選択します。

  8. 記憶域タイプに「iSCSI」を選択すると、「ターゲットの検出」ダイアログ・ボックスが開き、「新規ドメイン」ダイアログ・ボックスでは、「ターゲット名」列の下に未使用のLUNを含む既知のターゲットが自動的に表示されます。

    記憶域の追加元のターゲットがリストされていない場合、「ターゲットの検出」ダイアログ・ボックスの次のフィールドに入力します。

    1. 「アドレス」フィールドに、記憶域アレイ上のiSCSIホストの完全修飾ドメイン名またはIPアドレスを入力します。

    2. ポート」フィールドに、ターゲットの参照時にホストに接続するポートを入力します。 デフォルトでは、このフィールドにはデフォルトのiSCSIポート3260が自動的に入力されています。

    これらのフィールドに入力した後、「検出」をクリックします。

    ターゲット名」列が更新され、ストレージ・アレイで検出された使用可能なすべてのターゲットがリストされます。

  9. ターゲット名」列で、目的のターゲットを選択し、黒い右矢印を選択してターゲットにログインします。

    記憶域ドメインペインがリフレッシュされて、ログインしたターゲットのみがリスト表示されます。

  10. 「+」をクリックして目的のターゲットを展開します。

    ターゲットが展開され、未使用のLUNがすべて表示されます。

  11. ターゲットに接続する各LUN IDに対して「追加」をクリックします。

  12. (オプション)詳細パラメータを構成します。

    ZFSストレージを使用している場合、削除後に破棄オプションの選択を解除する必要があります。

  13. 「OK」をクリックします。

    タスク」をクリックして、iSCSIデータ・ドメインをデータ・センターにアタッチするために実行される様々な処理ステップを監視できます。

    iSCSIデータ・ドメインが仮想化環境に追加されたあと、仮想マシンの作成に使用されるISOイメージをアップロードできます。

iSCSIマルチパス化の構成

iSCSIマルチパス化を構成する前に、次の用意ができていることを確認します。

iSCSIマルチパス化を構成するには:

  1. 「コンピュート」 「データ・センター」をクリックします。

  2. データ・センター名をクリックします。

  3. 「iSCSIマルチパス」タブで、「追加」をクリックします。

  4. 「iSCSIボンドの追加」ウィンドウで、「名前」を入力し、オプションで「説明」を追加します。

  5. 「論理ネットワーク」から論理ネットワークを選択し、「記憶域ターゲット」から記憶域ドメインを選択します。 同じターゲットへのすべてのパスを選択する必要があります。

  6. 「OK」をクリックします。

データ・センター内のホストは、iSCSIボンド内の論理ネットワークを介してiSCSIターゲットに接続されます。

論理ネットワークのiSCSIボンドへの移行

iSCSIトラフィック用に作成した論理ネットワークがあり、既存のネットワーク・ボンドの上に構成されている場合は、中断や停止を発生させることなく、その論理ネットワークを同じサブネット上のiSCSIボンドに移行できます。

論理ネットワークをiSCSIボンドに移行するには:

  1. 不要になるように現在の論理ネットワークを変更します。

    1. 「コンピュート」をクリックし、「クラスタ」をクリックします。

    2. クラスタ名をクリックします。

    3. クラスタの詳細ページの「論理ネットワーク」タブで、現在の論理ネットワークを選択し、「ネットワークの管理」をクリックします。

      たとえば、net-1は現在の論理ネットワークの名前です。

    4. 「必要」チェック・ボックスの選択を解除し、OKをクリックします。

  2. 必須ではなく、VMネットワークではない新しい論理ネットワークを作成します。

    1. ネットワークの追加をクリックします。 これにより、新規論理ネットワークウィンドウが開きます。

    2. 「一般」タブで、「名前」 (net-2など)を入力し、「VMネットワーク」チェック・ボックスの選択を解除します。

      たとえば、net-2は新しい論理ネットワークの名前です。

    3. 「クラスタ」タブで、「必要」チェック・ボックスの選択を解除し、OKをクリックします。

  3. 現在のネットワーク・ボンドを削除し、論理ネットワークを再割当てします。

    1. 「コンピュート」をクリックし、「ホスト」をクリックします。

    2. ホスト名をクリックします。

    3. ホストの詳細ページの「ネットワーク・インタフェース」タブで、「ホスト・ネットワークの設定」をクリックします。

    4. 古い論理ネットワーク(net-1など)を右にドラッグして割当てを解除します。

    5. 現在のボンドを右にドラッグして削除します。

    6. 古い論理ネットワーク(net-1など)と新しい論理ネットワーク(net-2など)を左にドラッグして、物理インタフェースに割り当てます。

    7. 新しい論理ネットワーク(net-2など)を編集するには、その鉛筆アイコンをクリックします。

    8. 「ネットワークの編集」ウィンドウのIPV4タブで、「静的」を選択します。

    9. サブネットのIPおよび「ネットマスク/ルーティング・プレフィクス」を入力し、OKをクリックします。

  4. iSCSIボンドを作成します。

    1. 「コンピュート」をクリックし、「データ・センター」をクリックします。

    2. データ・センター名をクリックします。

    3. データ・センターの詳細ページの「iSCSIマルチパス」タブで、「追加」をクリックします。

    4. 「iSCSIボンドの追加」ウィンドウで、「名前」を入力し、古いネットワークと新しいネットワーク(net-1net-2など)を選択し、OKをクリックします。

データ・センターには、新旧の論理ネットワークを含むiSCSIボンドがあります。

FCデータ・ドメインの追加

FCデータ・ドメインを追加するには:

  1. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  2. 記憶域ドメインペインで「新規ドメイン」ボタンをクリックします。

    新規ドメイン」ダイアログ・ボックスが開きます。

  3. 名前」フィールドに、新しいデータ・ドメインの名前を入力します。

  4. データ・センター」ドロップダウン・リストから、データ・ドメインをアタッチするデータ・センターを選択します。 デフォルトでは、ドロップダウン・リストの「デフォルト」オプションが選択されています。

  5. ドメイン機能ドロップダウン・リストから、ドメイン機能を選択します。 デフォルトでは、ドロップダウン・リストの「データ」オプションが選択されています。

    この例ではデータ・ドメインを作成するため、このステップではドメイン機能として「データ」を選択したままにします。

  6. 記憶域タイプドロップダウン・リストから、ファイバ・チャネルを選択します。

  7. 使用するホストドロップダウン・リストから、データ・ドメインをアタッチするホストを選択します。

  8. 記憶域タイプファイバ・チャネルが選択されると、「新規ドメイン」ダイアログ・ボックスに、未使用のLUNを含む既知のターゲットが自動的に表示されます。

  9. ターゲットに接続しているLUN IDの横の「追加」をクリックします。

  10. (オプション)詳細パラメータを構成します。

  11. 「OK」をクリックします。

    タスク」をクリックして、FCデータ・ドメインをデータ・センターにアタッチするために実行される様々な処理ステップを監視できます。

データ・ドメインへのイメージのアップロード

Managerを使用してイメージをデータ・ドメインにアップロードする前に、ManagerおよびKVMホストでイメージをアップロードするための前提条件を満たしていることを確認するために、次のステップを実行する必要があります。

始める前に

データ・ドメインへのイメージのアップロードの前提条件を満たしていることを確認するには:

  1. エンジン・ホストで、ovirt-imageioサービスが構成され、実行中であることを確認します。

    # systemctl status ovirt-imageio.service     

    サービスが実行中の場合、出力は次のように表示されます。

    # systemctl status ovirt-imageio.service
      ovirt-imageio.service - oVirt ImageIO
       Loaded: loaded (/usr/lib/systemd/system/ovirt-imageio.service; enabled; 
       vendor preset: disabled)
       Active: active (running) since Mon 2019-03-25 13:12:29 PDT; 2 weeks 0 days ago
     Main PID: 28708 (ovirt-imageio-p)
       CGroup: /system.slice/ovirt-imageio.service
               └─28708 /usr/bin/python2 /usr/bin/ovirt-imageio
    ...

    このサービスは自動的に構成され、Managerのインストール時にengine-setupコマンドを実行すると起動されます。

  2. KVMホストで、ovirt-imageioサービスが構成され、実行されていることを確認します。 たとえば:

    # systemctl status ovirt-imageio-daemon
      ovirt-imageio-daemon.service - oVirt ImageIO Daemon
       Loaded: loaded (/usr/lib/systemd/system/ovirt-imageio-daemon.service; disabled; 
       vendor preset: disabled)
       Active: active (running) since Wed 2019-03-27 18:38:36 EDT; 3 weeks 4 days ago
     Main PID: 366 (ovirt-imageio-d)
        Tasks: 4
       CGroup: /system.slice/ovirt-imageio-daemon.service
               └─366 /usr/bin/python /usr/bin/ovirt-imageio-daemon
    
    Mar 27 18:38:36 myserver systemd[1]: Starting oVirt ImageIO Daemon...
    Mar 27 18:38:36 myserver systemd[1]: Started oVirt ImageIO Daemon.
  3. 次のURLを参照し、信頼設定を有効にして、マネージャへのアクセスに使用するwebブラウザに認証局がインポートされていることを確認 : https://engine_address/ovirt-engine/services/pki-resource?resource=ca-certificate&format=X509-PEM-CA

  4. 管理ポータルにアクセスするためのブラウザ要件を満たすブラウザを使用していることを確認します。

    詳細は、「Oracle Linux Virtualization Manager: スタート・ガイド」「管理ポータルへのログイン」を参照してください。

データ・ドメインへのISOイメージのアップロード

Managerを使用してデータ・ドメインにISOイメージをアップロードするには:

  1. 環境にアップロードするISOイメージ・ファイルを、デスクトップ、ラップトップ、またはManagerがWebブラウザからアクセスできるシステム上の場所にダウンロードまたはコピーします。

  2. 記憶域」に移動して、「ディスク」をクリックします。

    「ディスク」ペインが開きます。

  3. アップロード」をクリックし、ドロップダウン・リストから「開始」を選択します。

    イメージのアップロード」ダイアログ・ボックスが開きます。

  4. ファイルの選択」をクリックし、ISOイメージを保存した場所に移動します。

  5. ダイアログ・ボックスの「ディスク・オプション」セクションに入力します。

  6. 接続のテスト」をクリックして、前提条件が満たされていることを確認します。

    テストから警告またはエラー・メッセージが返された場合は、「始める前に」を参照して前提条件を確認してください。

  7. OK」をクリックして、ISOイメージのアップロードを開始します。

    ディスク」ペインのステータス・フィールドでは、アップロードの進行状況が追跡されます。

    ISOイメージのアップロードが正常に完了した後は、イメージをCD-ROMとして仮想マシンにアタッチしたり、イメージを使用して仮想マシンを起動したりできます。

ノート:

コマンドラインからデータ・ドメインへのISOイメージのアップロードの詳細は、My Oracle Supportの記事「リモートLinuxサーバーから記憶域ドメインにディスク/ISOをアップロードするサンプル・スクリプト(ドキュメントID 2830534.1)」を参照してください。

データ・センターからの記憶域ドメインのデタッチ

記憶域ドメインは、デタッチおよび削除の前にメンテナンス・モードになっている必要があります。 これは、別のデータ・ドメインをマスター・データ・ドメインとして再設計するために必要です。

仮想マシンに記憶域ドメインのリースがある場合、記憶域ドメインをメンテナンス・モードに移行することはできません。 最初に仮想マシンを停止するか、リースを削除するか別の記憶域ドメインに移動する必要があります。

記憶域ドメインをあるデータ・センターからデタッチして別のデータ・センターに移行するには:

  1. 記憶域ドメインで実行されているすべての仮想マシンを停止します。

  2. 記憶域」に移動して、「ドメイン」をクリックします。

    記憶域ドメインペインが開きます。

  3. 記憶域ドメインの名前をクリックします。

    記憶域ドメインの詳細ビューが開きます。

  4. 「データ・センター」タブをクリックします。

  5. 「メンテナンス」をクリックします。

    OVF更新の失敗を無視チェック・ボックスを使用すると、OVFの更新が失敗した場合でも記憶域ドメインをメンテナンス・モードにできます。

    ノート:

    OVF_STOREディスクは、記憶域データ・ドメインに存在する仮想マシンおよびディスクのメタデータを含むイメージです。

  6. 「OK」をクリックします。

    記憶域ドメインが非アクティブ化され、結果リストにInactiveステータスが表示されます。 これで、非アクティブな記憶域ドメインをデータ・センターからデタッチできます。

  7. 「デタッチ」をクリックします。

  8. 「OK」をクリックして、記憶域ドメインをデタッチします。

記憶域ドメインがデータ・センターからデタッチされたため、別のデータ・センターにアタッチできます。

仮想マシン

Oracle Linux Virtualization Managerでは、仮想マシンを作成したり、ライブ編集、ライブ移行、テンプレートとスナップショットの作成と使用などの基本的な管理タスクを実行できます。

新しい仮想マシンの作成

この項では、削除ビューアをインストールし、Oracle LinuxまたはMicrosoft Windows仮想マシンを作成し、それぞれのゲストOS、エージェントおよびドライバをインストールする方法について説明します。

サポートされているゲスト・オペレーティング・システムの詳細については、「Oracle® Linux: KVMユーザー・ガイド」を参照してください。

Microsoft Windows仮想マシンを作成する前に、次の前提条件が満たされていることを確認してください。

Oracle VirtIO Drivers for Microsoft Windowsを取得します。

  1. Oracle Software Delivery CloudまたはMy Oracle Support (MOS)からManagerホストにOracle VirtIO Drivers for Microsoft Windowsをダウンロードします。 詳細は、「KVMで使用するためのOracle VirtIO Drivers for Microsoft Windows」を参照してください。
  2. Oracle VirtIO Drivers for Microsoft Windows ISOイメージをOracle Linux Virtualization Manager記憶域ドメインにアップロードします。 詳細は、「データ・ドメインへのISOイメージのアップロード」を参照してください。

QEMUゲスト・エージェントをManagerホストにダウンロードします。

  • 「ULN登録ホストの場合またはOracle Linux Managerを使用する場合」「Oracle Linux 8 (x86_64)のoVirtリリース4.5 - 追加」チャネルからqemu-ga-winをダウンロードします。
  • 「Oracle Linux yumサーバー構成済KVMホストの場合」「Oracle Linux 8 (x86_64) oVirt 4.5追加」リポジトリからqemu-ga-winをダウンロードします。

ノート:

仮想マシンの作成に加えて、オープン仮想アプライアンス(OVA)ファイルをデータ・センターの任意のホストから自分の環境にインポートできます。 詳細は、「oVirtドキュメント」のoVirt仮想マシン管理を参照してください。

クライアント・マシンへのリモート・ビューアのインストール

コンソールは、物理マシンに類似した仮想マシンを表示して操作できるUIです。 デフォルトのコンソールは、仮想マシンに接続するためのUIをユーザーに提供するリモート・ビューア・アプリケーションです。

LinuxまたはWindows OSのインストールを開始する前に、「仮想マシン・マネージャ」 webサイトから適切なインストール・パッケージをダウンロードします。

ノート:

「Oracle Linux Virtualization Manager: リリース・ノート」「既知の問題」セクションの「非推奨のゲスト・エージェントによるWindows仮想マシンの機能低下」を参照してください。

詳細は、『Oracle Linux Virtualization Manager: アーキテクチャおよびプランニング・ガイド』のコンソールに関する項を参照してください。

Linuxにリモート・ビューアをインストールする手順は次のとおりです。

  1. virt-viewerインストール・パッケージがダウンロードされていることを確認します。

  2. システムに応じて、次のいずれかのコマンドを使用してvirt-viewerパッケージをインストールします。

    # yum install virt-viewer                      
    # dnf install virt-viewer            
  3. ブラウザを再起動して、Oracle Linux Virtualization Managerの変更を有効にします。

これで、VNCプロトコルを使用して仮想マシンに接続できます。

Windowsにリモート・ビューアをインストールする手順は次のとおりです。

  1. システムのアーキテクチャに応じて、32ビットまたは64ビットのvirt-viewerインストーラがダウンロードされていることを確認します。

  2. ファイルを保存したフォルダに移動し、ファイルをダブルクリックします。

  3. セキュリティの警告を示すプロンプトが表示されたら、「実行」をクリックします。

  4. ユーザー・アカウント制御のプロンプトが表示されたら、「はい」をクリックします。

インストールすると、「スタート」メニューから「すべてのプログラム」「VirtViewer」フォルダにあるリモート・ビューアにアクセスできます。

新しいLinuxまたはMicrosoft Windows仮想マシンの作成

次の一般的な手順に従って、新しい仮想マシンを作成します:

  1. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 「新規」をクリックします。

    新規仮想マシン」ダイアログ・ボックスが開き、サイドバーの「一般」タブが選択されます。

  3. クラスタ」ドロップダウン・リストから、新しいホストのデータ・センターおよびホスト・クラスタを選択します。

    「デフォルト」データ・センターは、ドロップダウン・リストで事前に選択されています。

    新しいデータ・センターまたは新しいクラスタを作成する手順は、「データ・センター」タスクまたは「クラスタ」タスクを参照してください。

  4. オペレーティング・システム」ドロップダウン・リストから、仮想マシンのオペレーティング・システムを選択します。

  5. 「最適化の対象」ドロップダウン・リストを使用して、仮想マシンを最適化するシステムのタイプを選択します。
    • サーバー(デフォルト) - サウンド・カードがなく、クローニングされたディスク・イメージを使用し、ステートレスではありません
    • デスクトップ - サウンド・カードを持ち、イメージ(シン割当て)を使用し、ステートレスです
    • High Performance - 多数の構成変更があります。「クラスタ、ホストおよび仮想マシンの最適化」を参照してください。
  6. 名前」フィールドに、新しい仮想マシンの名前を入力します。

  7. インスタンスのイメージで、既存の仮想ディスクを使用するか新規仮想デスクを作成して、仮想マシンに記憶域を追加します。

    • 既存の仮想ディスクを使用するには、アタッチをクリックして、仮想マシン記憶域に使用する仮想ディスクを選択します。 次に、「OK」をクリックします。

    • 新しい仮想ディスクを作成するには、「作成」をクリックして仮想マシン記憶域のフィールドを更新するか、デフォルト設定を受け入れます。 次に、「OK」をクリックします。

    新しい仮想ディスクを作成する場合は、次のフィールドがキーになります:

    • 「ブート可能」を確認します。

    • ディスク「サイズ(GiB)」を入力します。

    • 「インタフェース」ドロップダウン・リストから、VirtIO-SCSIを選択します。

    • 「割当ポリシー」ドロップダウン・リストから、「割り当て済み」を選択するとディスク領域が予約され、「シン・プロビジョニング」を選択すると、疎に割り当てられた仮想ディスクが作成されます。

    • 「ディスク・プロファイル」リストから、仮想ディスクを保存できる記憶域ドメインを選択します。

    ノート:

    追加の仮想ディスクを作成する必要がある場合は、このステップを繰り返します。
  8. ネットワーク・インタフェースを追加して、仮想マシンをネットワークに接続します。

    「論理ネットワークの作成」「KVMホストへの論理ネットワークの割当て」、および「仮想マシンのvNICプロファイルのカスタマイズ」を参照してください。

  9. 詳細オプションの表示をクリックして、新しい仮想マシンで使用できる追加の構成オプションを表示します。

  10. (オプション)サイドバーの「システム」タブをクリックして、仮想マシンのCPUとメモリー・サイズをデフォルトから調整します。

    • 「メモリー・サイズ」フィールドの場合、デフォルト値は1024 MBです。

    • 「最大メモリー」フィールドの場合、デフォルト値は4096 MBです。これはメモリー・サイズの4倍ですが、手動で構成できます。

    • 「合計仮想CPU」フィールドの場合、デフォルト値は1です。

    ノート:

    インストールするオペレーティング・システムによっては、メモリーおよびvCPUの要件がある場合があります。
  11. OK」をクリックして、仮想マシンを作成します。

  12. 「Oracle LinuxゲストOSのインストール」または「Microsoft WindowsゲストOSのインストール」に進みます。

Oracle LinuxゲストOSのインストール

Oracle LinuxゲストOSをインストールするには:

  1. 「仮想マシン」ペインで、「新しいLinuxまたはMicrosoft Windows仮想マシンの作成」で作成されたOracle Linux仮想マシンを選択します。

  2. 「実行」の横にある下矢印を使用して、「1回実行」を選択します。

  3. OracleLinux-R7-U6-Server-x86_64-dvd.isoなどのISOファイルを添付し、OKをクリックします。
  4. コンソール」をクリックして、仮想マシンのコンソールを開きます。

    リモート・ビューア・アプリケーションをインストールしていない場合は、「クライアント・マシンへのリモート・ビューアのインストール」を参照してください。

  5. Oracle LinuxゲストOSをインストールします。

    Oracle Linuxのインストール方法の詳細は、「Oracle® Linuxドキュメント」を参照してください。

  6. インストールが完了したら、仮想マシンを再起動します。
  7. (オプション)インターネット・アクセスにプロキシ・サーバーを使用する場合は、プロキシ・サーバー設定を使用してYumを構成します。 firewalldの構成の詳細は、「Oracle® Linux 7: セキュリティ・ガイド」または「Oracle Linux 8: ファイアウォールの構成」のパケット・フィルタリング・ファイアウォールの構成を参照してください

  8. (オプション)yumを使用してホストを更新する場合は、ホストがモジュール化yumリポジトリ構成を使用していることを確認します。 詳細は、Oracle Linux Yumサーバーのスタート・ガイドを参照してください。

  9. 「Oracle Linuxゲスト・エージェントのインストール」に進みます。

 Oracle Linuxゲスト・エージェントのインストール

Oracle Linuxゲスト・エージェントをインストールするには、使用しているバージョンに適したステップに従います。

  1. Oracle Linuxゲストのコンソール・セッションを開き、端末にログインします。

  2. 最新のゲスト・エージェント・パッケージをインストールします。

    Oracle Linux 8ゲストの場合:

    # dnf module reset virt
    # dnf config-manager --enable ol8_kvm_appstream
    # dnf -y module enable virt:kvm_utils3
    # dnf -y install qemu-guest-agent       

    Oracle Linux 7ゲストの場合:

    # yum install yum-utils -y
    # yum-config-manager --enable ol7_latest
    # yum install qemu-guest-agent          
    Oracle Linux 6ゲストの場合:
    # yum install yum-utils -y
    # yum-config-manager --enable ol6_latest
    # yum install qemu-guest-agent
    Oracle Linux 5ゲストの場合:
    # yum install yum-utils -y
    # yum install http://yum.oracle.com/repo/OracleLinux/OL7/ovirt42/x86_64/getPackage/ \
      ovirt-guest-agent-1.0.13-2.el5.noarch.rpm
  3. Oracle Linuxゲストのゲスト・エージェント・サービスを起動します。

    Oracle Linux 8およびOracle Linux 7のゲストの場合:

    # systemctl start qemu-guest-agent.service     
    Oracle Linux 6ゲストの場合:
    # service qemu-ga enable
    # service qemu-ga start        
    Oracle Linux 5ゲストの場合:
    # service ovirt-guest-agent enable
    # service ovirt-guest-agent start  
  4. (オプション)仮想マシンの再起動時のゲスト・エージェント・サービスの自動再起動を有効にします。

    Oracle Linux 8およびOracle Linux 7のゲストの場合:

    # systemctl enable qemu-guest-agent.service   
    Oracle Linux 6ゲストの場合:
    # chkconfig qemu-ga on    
    Oracle Linux 5ゲストの場合:
    # chkconfig ovirt-guest-agent on
Microsoft WindowsゲストOSのインストール

Microsoft WindowsゲストOSをインストールするには:

  1. 「仮想マシン」ペインで、仮想マシンを選択します。

  2. 「実行」の横にある下矢印を使用して、「1回実行」を選択します。

  3. 「ブート・オプション」メニューを展開し、「CDを添付」を選択し、ISOイメージを選択します。
  4. OKをクリックして仮想マシンを起動します。
  5. コンソール」をクリックして、仮想マシンのコンソールを開きます。

    リモート・ビューア・アプリケーションをインストールしていない場合は、「クライアント・マシンへのリモート・ビューアのインストール」を参照してください。

  6. Microsoft WindowsゲストOSをインストールします。

    オペレーティング・システムのインストール方法については、該当するMicrosoft Windowsのドキュメントを参照してください。

  7. インストールが完了したら、仮想マシンを再起動します。
  8. 「VirtIOドライバのインストール」に進み、次に「QEMUゲスト・エージェントのインストール」に進みます。

VirtIOドライバのインストール

新しいMicrosoft Windows仮想マシンにOracle VirtIO Drivers for Microsoft Windowsをインストールする前に、ドライバをManagerホストにダウンロードし、ISOイメージをOracle Linux Virtualization Manager記憶域ドメインにアップロードしていることを確認してください。 詳細については、「前提条件」を参照してください。

Oracle VirtIO Drivers for Microsoft Windowsをインストールするには:

  1. Microsoft WindowsゲストOSのインストールが終了したら、「仮想マシン」ペインに戻り、この仮想マシンの行を強調表示して、「編集」をクリックします。

    仮想マシンの編集」ダイアログ・ボックスが開きます。

  2. ダイアログ・ボックスのサイドバーでブート・オプションタブをクリックして仮想デバイスのブート順序を指定します。

    1. 最初のデバイスドロップダウン・リストで「CD-ROM」から「ハードディスク」に変更します。

    2. 2番目のデバイスドロップダウン・リストから「CD-ROM」を選択します。

    3. 「CDをアタッチ」チェック・ボックスを選択し、ドロップダウン・リストからvirtioを選択します。

  3. OK」をクリックして、仮想マシン構成への変更を保存します。

  4. 仮想マシンの変更の保留ダイアログ・ボックスが表示されたら、「OK」をクリックします。

  5. 仮想マシン」ペインから、仮想マシンを再起動します。

  6. コンソール」をクリックして、仮想マシンのコンソールを開き、CDROMにナビゲートします。

  7. virtioフォルダをダブルクリックしてから「設定」をクリックし、Oracle VirtIO Drivers for Microsoft Windowsインストーラを起動します。

    インストーラ・ウィンドウが表示されます。

  8. インストール」をクリックして、Oracle VirtIO Drivers for Microsoft Windowsインストーラを起動します。

    インストーラは、Oracle VirtIO Drivers for Microsoft Windowsインストーラ・ファイルをコピーし、Microsoft Microsoft Windowsゲスト・オペレーティング・システムにドライバをインストールします。

  9. はい、今すぐコンピュータを再起動します」をクリックし、「終了」をクリックします。

    仮想マシンが再起動されます。

  10. 仮想マシンを停止します。

  11. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  12. Microsoft WindowsゲストOSをインストールした仮想マシンを選択し、「編集」をクリックします。

  13. 仮想ディスクを編集します。 「インタフェース」ドロップダウン・リストから、SATAVirtIO-SCSIに変更します。

  14. サイドバーのブート・オプションタブをクリックします。

    1. 最初のデバイスドロップダウン・リストを変更しないでください。 前のステップで「ハード・ディスク」オプションが選択されています。

    2. 2番目のデバイスドロップダウン・リストから「なし」を選択します。

    3. 「CDのアタッチ」チェック・ボックスの選択を解除します。

  15. OK」をクリックして、仮想マシン構成への変更を保存します。

  16. 仮想マシンを再起動します。
  17. 「QEMUゲスト・エージェントのインストール」に進みます。

QEMUゲスト・エージェントのインストール

QEMUゲスト・エージェントを新しいMicrosoft Windows仮想マシンにインストールする前に、ドライバをManagerホストにダウンロードしたことを確認してください。 詳細については、「前提条件」を参照してください。

  1. ManagerホストにQEMUゲスト・エージェントをインストールします。
    # dnf install qemu-ga-win
  2. インストールを検証します。
    # ls -lat /usr/i686-w64-mingw32/sys-root/mingw/bin/
    total 9280
    drwxr-xr-x. 2 root root      30 Nov  3 13:56 .
    -rw-r--r--. 1 root root 9499648 Nov  2 09:45 qemu-ga-i386.msi
    drwxr-xr-x. 3 root root      17 Sep 23 19:02 ..
     
    # ls -lat /usr/x86_64-w64-mingw32/sys-root/mingw/bin/
    total 9472
    drwxr-xr-x. 2 root root      32 Nov  3 13:56 .
    -rw-r--r--. 1 root root 9697280 Nov  2 09:45 qemu-ga-x86_64.msi

重要:

  • 「仮想マシンにアクセスできる場合」では、適切なMSI (32ビットまたは64ビット)を仮想マシンにコピーしてから、インストーラを実行してQEMUゲスト・エージェントをインストールできます。
  • 「仮想マシンへのアクセス権がない場合」は、次のステップを使用してISOを構築およびアップロードし、QEMUゲスト・エージェントをインストールします。

ISOを構築し、QEMUゲスト・エージェントを仮想マシンにインストールします。

  1. QEMUゲスト・エージェントISOを構築します。
    # dnf install genisoimage -y
    
    # pwd
    /root
    
    # mkdir build-iso
    
    # cp /usr/i686-w64-mingw32/sys-root/mingw/bin/qemu-ga-i386.msi build-iso/
    
    # cp /usr/x86_64-w64-mingw32/sys-root/mingw/bin/qemu-ga-x86_64.msi build-iso/
    
    # mkisofs -R -J -o qemu-ga-windows.iso build-iso/*
    I: -input-charset not specified, using utf-8 (detected in locale settings)
    Using QEMU_000.MSI;1 for  /qemu-ga-x86_64.msi (qemu-ga-i386.msi)
     52.36% done, estimate finish Thu Nov  3 14:20:49 2022
    Total translation table size: 0
    Total rockridge attributes bytes: 347
    Total directory bytes: 0
    Path table size(bytes): 10
    Max brk space used 0
    9549 extents written (18 MB)
     
    # ll qemu-ga-windows.iso
    -rw-r--r--. 1 root root 19556352 Nov  3 14:20 qemu-ga-windows.iso
  2. QEMUゲスト・エージェントISOイメージをOracle Linux Virtualization Manager記憶域ドメインにアップロードします。 詳細は、「データ・ドメインへのISOイメージのアップロード」を参照してください。
  3. 「仮想マシン」ペインで、仮想マシンを選択します。

  4. この仮想マシンの行を強調表示し、「編集」をクリックします。

    仮想マシンの編集」ダイアログ・ボックスが開きます。
  5. ダイアログ・ボックスのサイドバーでブート・オプションタブをクリックして仮想デバイスのブート順序を指定します。

    1. 最初のデバイスドロップダウン・リストで「CD-ROM」から「ハードディスク」に変更します。

    2. 2番目のデバイスドロップダウン・リストから「CD-ROM」を選択します。

    3. 「CDをアタッチ」チェック・ボックスを選択し、ドロップダウン・リストからqemu実行可能ファイルを選択します。

  6. OK」をクリックして、仮想マシン構成への変更を保存します。

  7. 仮想マシンの変更の保留ダイアログ・ボックスが表示されたら、「OK」をクリックします。

  8. 仮想マシン」ペインから、仮想マシンを再起動します。

  9. コンソール」をクリックして、仮想マシンのコンソールを開き、CDROMにナビゲートします。

  10. qemu実行可能ファイルをダブルクリックして、インストール・プログラムを起動します。

  11. インストールが完了したら、「はい、今すぐコンピュータを再起動」をクリックして「終了」をクリックします。

    仮想マシンが再起動されます。

  12. 仮想マシンを停止します。

  13. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  14. Microsoft WindowsゲストOSをインストールした仮想マシンを選択し、「編集」をクリックします。

  15. サイドバーのブート・オプションタブをクリックします。

    1. 最初のデバイスドロップダウン・リストを変更しないでください。 前のステップで「ハード・ディスク」オプションが選択されています。

    2. 2番目のデバイスドロップダウン・リストから「なし」を選択します。

    3. 「CDのアタッチ」チェック・ボックスの選択を解除します。

  16. OK」をクリックして、仮想マシン構成への変更を保存します。

  17. 仮想マシン」ペインから、仮想マシンを再起動します。

  18. Microsoft Windows仮想マシンを実行します。

詳細は、「Oracle® Linux: KVMユーザー・ガイド」を参照してください

仮想マシンのライブ編集

仮想マシンの多くの設定は実行中に変更することもできます。

  1. 管理ポータルから、「計算」をクリックし、「仮想マシン」を選択します。

  2. 名前」列で、変更する仮想マシンを選択して、「編集」をクリックします。

  3. 仮想マシンの編集」ウィンドウの左下で、「拡張オプションの表示」をクリックします。

  4. 仮想マシンの実行中に、仮想マシンを再起動せずに次のプロパティを変更します。

    以下を変更するには、「一般」タブを選択します。

    • 最適化

      次の3つのオプションの中から選択できます。

      • デスクトップ - 仮想マシンにサウンド・カードがあり、イメージ(シン割当て)を使用し、ステートレスです。

      • サーバー - 仮想マシンにサウンド・カードがなく、クローニングされたディスク・イメージを使用し、ステートレスではありません。 対照的に、仮想マシンはデスクトップ・マシンとして動作するように最適化されています。

      • 高性能 - 仮想マシンは最高の効率を実現するために、推奨される一連の構成設定を使用して事前構成されます。

      • 名前

        仮想マシンの名前は、データ・センター内で一意である必要があります。 空白を含めることはできず、A-Zまたは0-9の文字を少なくとも1つ含める必要があります 最大長は255文字です。

        この名前は、Oracle Linux Virtualization Manager内の異なるデータ・センターで再使用できます。

      • 説明およびコメント

      • 削除保護

        仮想マシンを削除できないようにする場合は、このボックスを選択します。 後で仮想マシンを削除することを決定した場合、その選択を削除します。

      • ネットワーク・インタフェース

        ネットワーク・インタフェースを追加または削除するか、既存のNICのネットワークを変更します。

    以下を変更するには、「システム」タブを選択します。

    • メモリー・サイズ

      仮想メモリーのホットプラグに使用します。 詳細は、「仮想メモリーのホットプラグ」を参照してください。

    • 仮想ソケット (拡張パラメータの下)

      仮想マシンへのCPUのホットプラグに使用します。 仮想マシンには、KVMホストに存在するよりも多くのソケットを割り当てないでください。 詳細は、「vCPUのホットプラグ」を参照してください。

    以下を変更するには、「コンソール」タブを選択します。

    • 厳密なユーザー・チェックを無効化

      デフォルトでは、厳密なチェックが有効になっているため、仮想マシンのコンソールに接続できるのは、仮想マシンがリブートされるまで1人のユーザーのみです。 ただし、SuperUserはいつでも接続でき、既存の接続を置き換えます。 SuperUserが接続している場合、仮想マシンがリブートするまで、通常ユーザーは接続できません。

      重要:

      前のユーザーのセッションが新しいユーザーに公開されるため、このチェック・ボックスの選択は慎重に行ってください。

    以下を変更するには、「高可用性」タブを選択します。

    • 高可用性

      ホストがクラッシュした場合や動作しなくなった場合に、仮想マシンを自動的に別のホストにライブ・マイグレーションさせるには、このボックスを選択します。 高可用性が設定された仮想マシンのみが別のホストで再起動されます。 仮想マシンのホストを手動で停止した場合、仮想マシンは別のホストに自動的にライブ・マイグレーションされません。 詳細は、「高可用性仮想マシンの構成」を参照してください。

      ノート:

      ホスト」タブで移行モードとして手動マイグレーションのみを許可またはマイグレーションを許可しないを選択した場合には、このボックスを選択できません。 仮想マシンを高可用性にするには、エンジンが必要に応じて仮想マシンを別のホストに移行できるようにする必要があります。

    • 実行の優先度/マイグレーション・キュー

      仮想マシンを別のホストにライブ・マイグレーションするか別のホストで再起動するための優先度レベル(「」、「」または「」)を選択します。

    アイコン」タブを選択し、新しいアイコンをアップロードします。

  5. すべてのタブが完了したら、「OK」をクリックして変更内容を保存します。

その他の設定に対する変更は、仮想マシンを停止して再起動するときに適用されます。 それまでは、保留中の変更があることを示すオレンジ色のアイコンが表示されます。

ホスト間の仮想マシンの移行

同じ記憶域ドメインを共有する仮想マシンは、同じクラスタに属するホスト間でライブ・マイグレーションできます。 ライブ・マイグレーションを使用すると、実行中の仮想マシンを、サービスを中断することなく物理ホスト間で移動できます。 仮想マシンは電源が投入されたままで、仮想マシンが新しい物理ホストに再配置されている間もユーザー・アプリケーションは実行を継続します。 バックグラウンドで、仮想マシンのRAMがソース・ホストから宛先ホストにコピーされます。 記憶域およびネットワークの接続は変更されません。

ライブ・マイグレーションを使用して仮想マシンをシームレスに移動することで、いくつかの一般的なメンテナンス・タスクをサポートします。 ライブ・マイグレーションを使用する前に、ライブ・マイグレーションを適切にサポートするように環境が正しく構成されていることを確認してください。

ライブ・マイグレーション用の環境の構成

ライブ・マイグレーションを正常に実行できるようにするには、ライブ・マイグレーションを正しく構成する必要があります。 実行中の仮想マシンを正常に移行するには、少なくとも次のことが必要です。

  • ソース・ホストおよび移行先ホストは同じクラスタにある必要があります

  • ソース・ホストおよび移行先ホストのステータスはUpである必要があります。

  • ソース・ホストおよび移行先ホストは、同じ仮想ネットワークおよびVLANにアクセスできる必要があります

  • ソース・ホストと宛先ホストは、仮想マシンが存在するデータ記憶域ドメインにアクセスできる必要があります

  • 仮想マシンの要件をサポートするのに十分なCPU性能が宛先ホストに必要です。

  • 仮想マシンの要件をサポートするのに十分な未使用のRAMが宛先ホストに必要です。

ノート:

ライブ・マイグレーションは、管理ネットワークを使用して実行されます。 サポートされる同時移行の数はデフォルトで制限されています。 このような制限があっても、同時マイグレーションによって管理ネットワークが飽和する可能性があります。 ネットワーク飽和のリスクを最小限に抑えるために、記憶域、ディスプレイおよび仮想マシンのデータに対して個別の論理ネットワークを作成することをお薦めします。

マイグレーション時のネットワーク停止を軽減するように仮想マシンを構成するには:

  • 移行先ホストに使用可能な仮想機能(VF)があることを確認します

  • パススルーvNICのプロファイルで、「パススルー」および「移行可能」オプションを設定します

  • 仮想マシンのネットワーク・インタフェースのホットプラグを有効にします

  • 移行中に仮想マシンのネットワーク接続を維持するために、バックアップのVirtIO vNICが仮想マシンにあることを確認します

  • ボンディングを構成する前に、VirtIO vNICのネットワーク・フィルタなしオプションを設定します

  • 両方のvNICを仮想マシンのアクティブ・バックアップ・ボンディングの下位として、パススルーvNICをプライマリ・インタフェースとして追加します

仮想マシンの自動マイグレーション

エンジンは次の2つの状況で仮想マシンのライブ・マイグレーションを自動的に開始します。

  • ホストがメンテナンス・モードに移行されると、そのホストで実行されているすべての仮想マシンについてライブ・マイグレーションが開始されます。 クラスタ全体に負荷を分散するために、仮想マシンの移行時に各仮想マシンの宛先ホストが評価されます。

  • ロード・バランシングまたは節電レベルをスケジュール・ポリシーに合わせて維持するために、ライブ・マイグレーションが開始されます。

必要に応じて、特定の仮想マシンの自動(または手動)ライブ・マイグレーションを無効にできます。

仮想マシン移行モードの設定

仮想マシンの「移行モード」設定を使用すると、自動および手動移行の許可、自動移行の無効化、または自動および手動移行の無効化を行うことができます。 仮想マシンが特定のホストでのみ実行されるように構成されている場合、手動では移行できません。

仮想マシンの移行モードを設定するには:

移行モード」ドロップダウン・リストから、手動および自動マイグレーションを許可手動マイグレーションのみを許可またはマイグレーションを許可しないを選択します。

仮想マシンの移行モードを設定するには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

  2. 仮想マシンを選択し、「編集」をクリックします。

  3. 「ホスト」タブをクリックします。

  4. 実行開始場所ラジオ・ボタンを使用して、仮想マシンをクラスタ内の任意のホスト、特定のホスト、またはホストのグループのいずれで実行するかを指定します。

    仮想マシンにホスト・デバイスがアタッチされていて、別のホストを選択した場合、以前のホストからのホスト・デバイスは仮想マシンから削除されます。

    注意:

    仮想マシンを特定の1つのホストに割り当てることと、移行を無効にすることは、Oracle Linux Virtualization Manager高可用性(HA)では相互に排他的です。 1つの特定のホストに割り当てられた仮想マシンは、サードパーティのHA製品を使用してのみ高可用性にできます。 この制限は、ホストのグループに割り当てられた仮想マシンには適用されません。

  5. 移行モード」ドロップダウン・リストから、手動および自動マイグレーションを許可手動マイグレーションのみを許可またはマイグレーションを許可しないを選択します。

  6. (オプション) 「カスタム移行のダウンタイムを使用」をチェックし、ミリ秒単位の値を指定します。

  7. 「OK」をクリックします。

仮想マシンの手動移行

仮想マシンを手動で移行するには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

  2. 実行中の仮想マシンを選択し、「移行」をクリックします。

  3. ホストを自動的に選択または移行先ホストの選択のいずれかを選択し、ドロップダウン・リストから移行先ホストを選択します。

    ホストを自動的に選択を選択すると、スケジュール・ポリシーに設定されているロード・バランシングと電源管理ルールに従って、移行先ホストが自動的に決定されます。

  4. 「OK」をクリックします。

移行中、進捗はStatusフィールドに表示されます。 仮想マシンが移行されると、Hostフィールドが更新され、仮想マシンの新しいホストが表示されます。

テンプレートの使用

このサンプル・シナリオでは、「新規仮想マシンの作成」で作成したOracle Linux仮想マシンをシールした後、その仮想マシンに基づいてOracle Linuxテンプレートを作成します。 次にそのテンプレートを、仮想マシンの初期設定を自動化するためのCloud-Init対応テンプレートのベースとして使用します。

テンプレートは仮想マシンのコピーであり、これを使用すると、後続の類似する仮想マシンを簡単に繰り返し作成できます。" テンプレートは、ソフトウェアの構成、ハードウェアの構成、およびテンプレートの基となる仮想マシンにインストールされたソフトウェア(ソース仮想マシンと呼ばれる)を取得します。

テンプレートに基づいて作成された仮想マシンは、元の仮想マシンと同じNICタイプおよびドライバを使用しますが、個別の一意のMACアドレスが割り当てられます。

重要:

Oracleには、プレインストールされた事前構成済のテンプレートが用意されており、これを使用して完全に構成されたソフトウェア・スタックをデプロイできます。 Oracle Linuxテンプレートを使用すると、インストールと構成の負担がなくなり、進行中のメンテナンスでの負担が減ります。 詳細については、「Oracle Linuxテンプレートのインポート」を参照してください。

テンプレートとして使用するためのOracle Linux仮想マシンのシール

シールとは、仮想マシンに基づいてテンプレートを作成する前に、システム固有のすべての詳細を仮想マシンから削除するプロセスです。 同じテンプレートに基づいて作成された複数の仮想マシンに同じ詳細が表示されないようにするには、シールが必要です。 また、予測可能なvNICの順序などの他の機能を確認する必要もあります。

Oracle Linux仮想マシンをテンプレートとして使用するためにシールするには:

  1. Oracle Linux仮想マシンにrootユーザーとしてログインします。

  2. システムに再構成のためのフラグ付けをします。

    # touch /.unconfigured
  3. SSHホスト・キーを削除します。

    # rm -rf /etc/ssh/ssh_host_*
  4. 次の内の1つを実行します。
    1. Oracle Linux 6 (以前)の場合は、/etc/sysconfig/networkファイルでHOSTNAME=localhost.localdomainのホスト名値を設定します。
    2. Oracle Linux 7の場合は、/etc/hostnameファイルを削除します。
  5. /etc/udev/rules.d/70-*を削除します。

    # rm -rf /etc/udev/rules.d/70-*
  6. /etc/sysconfig/network-scripts/ifcfg-eth*ファイルのHWADDRおよびUUID行を削除します。

  7. (オプション) /var/logからすべてのログを削除し、/rootからログを作成します。

  8. コマンド履歴をクリーン・アップします。

    # history -c
  9. 仮想マシンを停止します。

    # poweroff      

    Oracle Linux仮想マシンがシールされ、テンプレートに変換できるようになります。

Oracle Linuxテンプレートの作成

仮想マシンに基づいてテンプレートを作成すると、仮想マシンのディスクの読取り専用コピーが作成されます。 この読取り専用ディスクは、新しいテンプレートのベース・ディスク・イメージとなり、テンプレートに基づいて作成される任意の仮想マシンのベース・ディスク・イメージになります。

Oracle Linuxテンプレートを作成するには:

  1. 計算」に移動して「仮想マシン」をクリックします。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 「その他のアクション」をクリックしてドロップダウン・リストを展開し、ドロップダウン・リストからテンプレートの作成を選択します。

    次のスクリーンショットは、テンプレートの作成オプションを表示するように展開された「その他のアクション」ドロップダウン・リストを示しています。 テンプレートの作成オプションが赤い四角形で強調表示されています。

    図3-4 テンプレート作成オプション


    前述のテキストで説明されている、テンプレートの作成オプションを表示するように展開された「その他のアクション」ドロップダウン・リスト。
  3. 名前」フィールドに、新しい仮想マシン・テンプレートの名前を入力します。

  4. ディスク割当て:セクションの別名列で、ディスク別名を「名前」フィールドに入力したテンプレート名と同じ名前に変更します。

  5. シール・テンプレート(Linuxのみ)チェック・ボックスを選択します。

    次のスクリーンショットは、ol7-vm-templateという名前の新しいテンプレートに対して完了した「新規テンプレート」ダイアログ・ボックスを示しています。 ダイアログ・ボックスで、ディスク別名はol7-vm-templateに変更され、シール・テンプレート(Linuxのみ)チェック・ボックスが選択されています。

    図3-5 「新規テンプレート」ダイアログ・ボックス


    前述のテキストで説明されている、新しいテンプレート用に入力された「新規テンプレート」ダイアログ・ボックス。
  6. OK」ボタンをクリックして、テンプレートを作成します。

    テンプレートの作成中は、仮想マシンのイメージのステータスはLockedと表示されます。 テンプレートの作成にかかる時間は、仮想ディスクのサイズおよびストレージ・ハードウェアの機能によって異なります。 テンプレート作成プロセスが完了すると、テンプレートは「テンプレート」ペインに表示されているテンプレートの一覧に追加されます。

    これで、このテンプレートに基づいた新しいOracle Linux仮想マシンを作成できるようになりました。

Cloud-Init対応テンプレートの作成

Oracle Linux 7 (およびそれ以降)の仮想マシンの場合、Cloud-Initツールを使用すると、仮想マシンの初期設定を自動化できます。 ホスト名、ネットワーク・インタフェース、認証されているキーの構成などの一般的なタスクは、このツールを使用して自動化できます。 1つのテンプレートに基づいてデプロイされている複数の仮想マシンをプロビジョニングする場合、Cloud-Initツールを使用して、ネットワーク上の競合を回避できます。

Cloud-Init対応テンプレートを作成する前に、次の前提条件が満たされていることを確認してください。

  • テンプレートとして使用するには、Oracle Linuxをシールしておく必要があります。 詳細は、「テンプレートとして使用するためのOracle Linux仮想マシンのシール」を参照してください。

  • テンプレートを作成する必要があります。 詳細は、「Oracle Linuxテンプレートの作成」を参照してください。

  • cloud-initパッケージは、まず仮想マシンにインストールする必要があります。 インストールされると、Cloud-Initサービスはブート・プロセス中に開始され、構成する対象についての手順を検索します。 「1回実行」ウィンドウを使用して、これらの指示を1回のみ指定します。

Cloud-Initパッケージのインストール

ノート:

次の手順では、オペレーティング・システムがOracle Linux 8以上であることを前提としています。

仮想マシンにCloud-Initをインストールするには:

  1. Oracle Linux仮想マシンにログインします。

  2. cloud-initパッケージをリストします。

    # dnf list cloud-init
  3. cloud-initパッケージをインストールします。

    # dnf install cloud-init
  4. 次のコマンドを実行して、cloud-initサービスを有効にします。

    # systemctl enable cloud-init
  5. 次のコマンドを実行して、cloud-initサービスを起動します。

    # systemctl start cloud-init
Cloud-Initの使用による仮想マシンの初期設定の自動化

Cloud-Initを使用して仮想マシンの初期設定を自動化するには:

  1. 計算」に移動して「テンプレート」をクリックします。

    テンプレート」ペインが開き、作成済のテンプレートのリストが表示されます。

  2. テンプレートを選択して、「編集」ボタンをクリックします。

  3. 「拡張オプションの表示」をクリックします。

  4. 初期実行タブをクリックして、Cloud-Init/Sysprepを使用チェック・ボックスを選択します。

  5. 「認証」セクションを開きます。

    • すでに構成済のパスワードを使用チェック・ボックスを選択して既存の資格証明を使用するか、このチェック・ボックスをクリアして「パスワード」および「パスワードの確認」テキスト・フィールドにrootパスワードを入力して新しいrootパスワードを指定します。

    • 仮想マシンの認可されたホスト・ファイルに追加するSSHキーをSSH認可キーテキスト領域に入力します。

    • 仮想マシンのSSHキーを再生成するには、SSHキーの再生成チェック・ボックスを選択します。

  6. ネットワーク」セクションを開きます。

    • DNSサーバー」テキスト・フィールドにDNSサーバーを入力します。

    • DNS検索ドメインテキスト・フィールドに、DNS検索ドメインを入力します。

    • ゲスト内ネットワーク・インタフェースチェック・ボックスを選択し、+新規追加および-選択項目の削除ボタンを使用して、仮想マシンに対するネットワーク・インタフェースの追加または削除を行います。

      重要:

      正しいネットワーク・インタフェース名および数値(たとえば、eth0eno3enp0s)を指定する必要があります。指定しない場合、仮想マシンのインタフェース接続は稼働しますが、Cloud-Initネットワーク構成は使用されません。

  7. カスタム・スクリプト」セクションを展開し、「カスタム・スクリプト」テキスト領域にカスタム・スクリプトを入力します。

Oracle Linuxテンプレートのインポート

Oracleには、プレインストールされた事前構成済のテンプレートが用意されており、これを使用して完全に構成されたソフトウェア・スタックをデプロイできます。 Oracle Linuxテンプレートを使用すると、インストールと構成の負担がなくなり、進行中のメンテナンスでの負担が減ります。

Oracle Linuxテンプレートをインポートするには:

  1. テンプレートOVAファイルをhttp://yum.oracle.com/oracle-linux-templates.htmlからダウンロードし、KVMホストにコピーします。

  2. ファイルに権限を割り当てます。

    # chown 36:36 /tmp/<myfile>.ova
  3. kvmユーザーがOVAファイルのパスにアクセスできることを確認します。たとえば:

    # -rw-r--r-- 1 vdsm kvm 872344576 Jan 15 17:43 OLKVM_OL7U7_X86_64.ova
  4. 管理ポータルで、「コンピュート」をクリックし、「テンプレート」を選択します。

  5. 「インポート」をクリックします。

  6. 「テンプレートのインポート」ウィンドウで、次のオプションを選択します。

    • データ・センター: < datacenter>

    • ソース: 仮想アプライアンス(OVA)

    • ホスト: <kvm_host_containing_ova>

    • ファイル・パス: <full_path_to_ova_file>

  7. 「ロード」をクリックします。

  8. ソースの仮想マシンリストから、仮想アプライアンスのチェック・ボックスを選択します。

    ノート:

    インポートする複数の仮想アプライアンスを選択できます。

  9. 右矢印をクリックしてアプライアンスを「インポートする仮想マシン」リストに移動し、「次へ」をクリックします。

  10. インポートするテンプレートの「クローン」フィールドをクリックし、その「一般」「ネットワーク・インタフェース」および「ディスク」構成を確認します。

  11. 「OK」をクリックします。

インポート・プロセスには数分かかる可能性があります。 完了したら、「コンピュート」「テンプレート」の順にクリックしてテンプレートを表示できます。

これで、「インポートしたテンプレートから仮想マシンを作成」を実行できます。

テンプレートからのOracle Linux仮想マシンの作成

テンプレートからOracle Linux仮想マシンを作成するには:

  1. 計算」に移動して「仮想マシン」をクリックします。

  2. 「新規VM」をクリックします。

  3. 「テンプレート」ドロップダウン・リストから、目的のテンプレートをドロップダウン・リストから選択します。 たとえば、「Oracle Linuxテンプレートの作成」で作成されたテンプレートを選択します。

  4. クラスタ」ドロップダウン・リストで、新しいホストのデータ・センターおよびホスト・クラスタを選択します。

    「デフォルト」データ・センターは、ドロップダウン・リストで事前に選択されています。

    新しいデータ・センターまたは新しいクラスタを作成する手順は、「データ・センター」タスクまたは「クラスタ」タスクを参照してください。

  5. 少なくとも、次のキー・フィールドに入力します。

    たとえば、作成中の新しいOracle Linux仮想マシンが、Oracle Linuxテンプレートの作成で作成されたテンプレートに基づいている場合:

    • 「名前」 - 仮想マシンの名前を入力します(たとえば、ol7-vm2)。

    • 「クラスタ」 - クラスタを選択するか、「デフォルト」オプションを選択したままにします。

    • 「テンプレート」 - テンプレートを選択します(たとえば、ol7-vm-template)。

    • 「オペレーティング・システム」 - オペレーティング・システム(たとえば、Oracle Linux 7.x x64)を選択します。

    • nic1 - 論理ネットワーク(たとえば、vm_pub)を選択します。

  6. OK」をクリックして、テンプレートから仮想マシンを作成します。

    作成されると、新しい仮想マシンが「仮想マシン」ペインに表示され、Downのステータスが表示されます。

  7. テンプレートから作成した仮想マシンを強調表示します。 「実行」の横にあるドロップダウン矢印から、「1回実行」を選択して、テンプレートをオンザフライでカスタマイズし、ユーザーの作成、パスワードの設定、ネットワークの構成を行います。

    仮想マシンの左側にある赤い下向き矢印アイコンが緑色になり、仮想マシンがネットワーク上で稼働しているときは「ステータス」列にUPと表示されます。

    テンプレートによっては、仮想マシンを初めて実行するときに、Cloud-Initオプションの構成が必要になる場合があります:

    1. 「実行」の横にあるドロップダウン矢印から、「1回実行」を選択
    2. 「初期実行」を展開し、「Cloud-initの使用」を選択
    3. ホスト名は事前に入力されています。 新しいユーザーとパスワード、ネットワーク構成、タイムゾーンなどの他のオプションを入力します。
    4. cloud-initスクリプトを追加します。

仮想マシンのスナップショットの操作

スナップショットは、特定の時点で使用可能な任意のまたはすべてのディスク上の仮想マシンのオペレーティング・システムとアプリケーションのビューです。 仮想マシンへの変更によって意図しない結果が生じる可能性がある場合、変更を行う前に仮想マシンのスナップショットを取得できます。 必要に応じて、スナップショットを使用して、仮想マシンを前の状態に戻すことができます。

ノート:

スナップショットを使用する際のベスト・プラクティスについては、Oracle Linux Virtualization Managerアーキテクチャおよびプランニング・ガイドスナップショット使用時の考慮事項を参照してください。

仮想マシンのスナップショットの作成

ノート:

この手順は、ライブ・スナップショットを取得するためのものです。 QEMUゲスト・エージェントがインストールされ、qemu-guest-agentサービスが稼働している必要があります。
仮想マシンのスナップショットを作成するには:
  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、スナップショットを取得する仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. 「作成」をクリックします。

  5. (オプション)説明」フィールドにスナップショットの説明を入力します。

  6. (オプション)含めるディスクチェック・ボックスを選択します。 デフォルトでは、すべてのディスクが選択されています。

    重要:

    ディスクを選択しない場合、ディスクのない仮想マシンの部分的なスナップショットが作成されます。 保存された部分的なスナップショットにはディスクがありませんが、部分的なスナップショットをプレビューして仮想マシンの構成を表示することはできます。

  7. (オプション)仮想マシンのメモリーをスナップショットに含めるには、メモリーの保存チェック・ボックスを選択します。 デフォルトでは、このチェック・ボックスは選択されています。

  8. OK」をクリックしてスナップショットを保存します。

    選択したディスクの仮想マシンのオペレーティング・システムとアプリケーションは、プレビューまたはリストアが可能なスナップショットに保存されます。

    スナップショット」ペインでは、スナップショットの作成時にスナップショットの横にLockアイコンが表示されます。 完了すると、アイコンがSnapshot(カメラ)アイコンに変わります。 次に、「一般」、「ディスク」、「ネットワーク・インタフェース」およびインストール済アプリケーションのドロップダウン・ビューを選択して、スナップショットに関する詳細を表示できます。

スナップショットからの仮想マシンのリストア
スナップショットを使用すると、仮想マシンを前の状態にリストアできます。

ノート:

このタスクを実行する前に、仮想マシンがDown状態にある必要があります。

スナップショットから仮想マシンをリストアするには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、スナップショットからリストアする仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. スナップショット」ペインで、仮想マシンのリストアに使用するスナップショットを選択します。

  5. プレビュー」ドロップダウン・リストから、「カスタム」を選択します。

    仮想マシン」ペインで、仮想マシンのステータスが一時的にImage Lockedに変わり、その後Downに戻ります。

    スナップショット」ペインで、スナップショットのプレビューが完了すると、スナップショットの横にPreview (目)アイコンが表示されます。

  6. 実行」をクリックして、仮想マシンを起動します。

    仮想マシンは、スナップショットのディスク・イメージを使用して実行されます。 スナップショットをプレビューして、仮想マシンの状態を確認できます。

  7. 停止」をクリックして、仮想マシンを停止します。

  8. スナップショット」ペインから、次のいずれかのステップを実行します。
    1. コミット」をクリックして、仮想マシンをスナップショットの状態になるように完全にリストアします。 以降のスナップショットはすべて消去されます。

    2. または、「元に戻す」をクリックしてスナップショットを非アクティブ化し、仮想マシンを前の状態に戻します。

スナップショットからの仮想マシンの作成

このタスクを実行する前に、仮想マシンのスナップショットを作成する必要があります。 詳細は、「仮想マシンのスナップショットの作成」を参照してください。

スナップショットから仮想マシンを作成するには:
  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、別の仮想マシンの作成元となる基礎として使用するスナップショットがある仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. スナップショット」ペインで、仮想マシンの作成元のスナップショットを選択します。

  5. 「クローン」をクリックします。

    スナップショットからVMをクローニングダイアログ・ボックスが開きます。

  6. 名前」フィールドに、仮想マシンの名前を入力します。

    ノート:

    名前」フィールドは、このダイアログ・ボックスの唯一の必須フィールドです。

    しばらくすると、クローニングされた仮想マシンがImage Lockedステータスとともに「仮想マシン」ペインに表示されます。 仮想マシンは、Managerが仮想マシンの作成を完了するまでこの状態のままです。 仮想マシンが使用可能になると、「仮想マシン」ペインでそのステータスがImage LockedからDownに変わります。

スナップショットの削除

仮想マシンのスナップショットを削除して、仮想化環境から完全に削除できます。 この操作は実行中の仮想マシンでサポートされており、仮想マシンをDown状態にする必要はありません。

重要:

  • イメージ・チェーンからスナップショットを削除する場合、元のボリュームと新しくマージされるボリュームの両方を一時的に収容できるだけの十分な空き領域が記憶域ドメインにある必要があります。そうでない場合はスナップショットの削除に失敗します。 これは、2つのボリュームからのデータがサイズ変更されたボリュームにマージされ、サイズ変更されたボリュームは、マージされた2つのイメージの合計サイズに対応するように増大するためです。 このシナリオでは、ボリュームをエクスポートして再インポートし、スナップショットを削除する必要があります。

  • 削除するスナップショットがベース・イメージに含まれている場合、削除対象のスナップショットを含むボリュームの後続ボリュームは、ベース・ボリュームを含むように拡張されます。

  • 削除されるスナップショットが、内部記憶域にホストされているQCOW2の(シンプロビジョニングされている)非ベース・イメージに含まれている場合、後続ボリュームは、削除されるスナップショットを含むボリュームを含むように拡張されます。

スナップショットを削除するには:

  1. 計算」をクリックし、「仮想マシン」を選択します。

    仮想マシン」ペインが開き、作成された仮想マシンのリストが表示されます。

  2. 名前」列で、削除するスナップショットがある仮想マシンを選択します。

    一般」タブが開き、仮想マシンの詳細が表示されます。

  3. 「スナップショット」タブをクリックします。

  4. スナップショット」ペインで、削除するスナップショットを選択します。

  5. 削除するスナップショットを選択します。

  6. 「削除」をクリックします。

  7. 「OK」をクリックします。

    スナップショット」ペインで、スナップショットが削除されるまで、スナップショットの横にLockアイコンが表示されます。

セキュリティ

通信を暗号化するには、組織のサードパーティのCA証明書を構成して、HTTPS経由で接続しているユーザーにOracle Linux Virtualization Managerを識別します。

HTTPS接続にサード・パーティのCA証明書を使用しても、エンジン・ホストとKVMホストの間の認証に使用される証明書には影響しません。 これらは引き続き、Managerによって生成される自己署名証明書を使用します。

HTTP Strict Transport Security (HSTS)を有効にして、プロトコル・ダウングレード攻撃やcookieハイ・ジャックなどの中間者攻撃からwebサイトを保護することもできます。

Oracle Linux Virtualization Manager Apache SSL証明書の置換

開始する前に、認証局(CA)によって発行されたデジタル証明書であるサード・パーティCA証明書を取得する必要があります。 証明書はPEMファイルとして提供されます。 証明書チェーンはルート証明書までの完全なものである必要があります。 チェーンの順序は重要であり、最後の中間証明書からルート証明書まで連なっている必要があります。

注意:

/etc/pkiディレクトリまたはサブディレクトリの権限および所有権は変更しないでください。 /etc/pkiおよび/etc/pki/ovirt-engineディレクトリの権限は、755のデフォルト値として維持する必要があります。

Oracle Linux Virtualization Manager Apache SSL証明書を置換するには:

  1. 新規のサード・パーティCA証明書をホスト全体の信頼ストアにコピーし、信頼ストアを更新します。

    # cp third-party-ca-cert.pem /etc/pki/ca-trust/source/anchors/
    # update-ca-trust export
  2. /etc/pki/ovirt-engine/apache-ca.pemへのシンボリック・リンクを削除します。

    エンジンは、/etc/pki/ovirt-engine/ca.pemにシンボリック・リンクされている/etc/pki/ovirt-engine/apache-ca.pemを使用するように構成されています。

    # rm /etc/pki/ovirt-engine/apache-ca.pem 
  3. CA証明書をManagerのPKIディレクトリにコピーします。

    # cp third-party-ca-cert.pem /etc/pki/ovirt-engine/apache-ca.pem 
  4. 既存の秘密キーと証明書をバックアップします。

    # cp /etc/pki/ovirt-engine/certs/apache.cer /etc/pki/ovirt-engine/certs/apache.cer.bck
    # cp /etc/pki/ovirt-engine/keys/apache.key.nopass /etc/pki/ovirt-engine/keys/apache.key.nopass.bck
  5. 次のコマンドを入力することにより新しいApache秘密キーをManagerのPKIディレクトリにコピーし、プロンプトに応答します。

    # cp apache.key /etc/pki/ovirt-engine/keys/apache.key.nopass
    cp: overwrite /etc/pki/ovirt-engine/keys/apache.key.nopass? y
  6. 次のコマンドを入力することにより新しいApache証明書をManagerのPKIディレクトリにコピーし、プロンプトに応答します。

    # cp apache.cer /etc/pki/ovirt-engine/certs/apache.cer 
    cp: overwrite /etc/pki/ovirt-engine/certs/apache.cer? y
  7. Apache HTTPサーバー(httpd)およびManagerを再起動します。

    # systemctl restart httpd
    # systemctl restart ovirt-engine
  8. 次のパラメータを追加して、新しいトラスト・ストア構成ファイル(または既存のもの)を/etc/ovirt-engine/engine.conf.d/99-custom-truststore.confに作成します。

    ENGINE_HTTPS_PKI_TRUST_STORE="/etc/pki/java/cacerts" 
    ENGINE_HTTPS_PKI_TRUST_STORE_PASSWORD=""  
  9. 既存のWebsocket構成ファイルをバックアップします。

    # cp /etc/ovirt-engine/ovirt-websocket-proxy.conf.d/10-setup.conf/etc/ovirt-engine/ \
    ovirt-websocket-proxy.conf.d/10-setup.conf.bck
  10. 次のパラメータを追加して、/etc/ovirt-engine/ovirt-websocket-proxy.conf.d/10-setup.confのWebsocket構成ファイルを編集します。

    SSL_CERTIFICATE=/etc/pki/ovirt-engine/certs/apache.cer 
    SSL_KEY=/etc/pki/ovirt-engine/keys/apache.key.nopass
  11. ovirt-provider-ovnサービスを再起動します。

    # systemctl restart ovirt-provider-ovn
  12. ovirt-engineサービスを再起動します。

    # systemctl restart ovirt-engine

HTTP Strict Transport Securityの有効化

HTTP Strict Transport Securityを有効にするには、次のステップを実行します。

  1. ovirt-engineサービス・ポート443の場合は、httpdの構成ファイルを作成します。たとえば:
    # cat ovirt-enable-strict-transport-security.conf
    LoadModule headers_module modules/mod_headers.so
    Header always set Strict-Transport-Security "max-age=63072000; includeSubDomains"
    <IfModule mod_rewrite.c>
        RewriteEngine On
        RewriteCond %{HTTPS} off
        RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI}
    </IfModule>
     
    # systemctl restart httpd
ovirt-imageioサービス・ポートの場合は、_internal/http.pyファイルを変更します:
# vi /usr/lib64/python3.6/site-packages/ovirt_imageio/_internal/http.py
 
class Response:
 
    def __init__(self, con):
        self._con = con
        self.status_code = OK
        self.headers = Headers({"content-length": 0, "Strict-Transport-Security": "max-age=31536000"})     
        self._started = False
 
# systemctl restart ovirt-imageio
 
# curl -s -I -k https://localhost:54323
HTTP/1.1 404 Not Found
server: imageio/2.4.7
date: Wed, 13 Sep 2023 16:56:45 GMT
content-length: 19
Strict-Transport-Security: max-age=31536000
content-type: text/plain; charset=UTF-8
ovirt-provider-ovnサービス・ポートの場合は、server.pyファイルを変更します:
# vi /usr/lib64/python3.6/http/server.py
 
    def send_response(self, code, message=None):
        """Add the response header to the headers buffer and log the
        response code.
 
        Also send two standard headers with the server software
        version and the current date.
 
        """
        self.log_request(code)
        self.send_response_only(code, message)
        self.send_header('Server', self.version_string())
        self.send_header('Date', self.date_time_string())
        # Oracle Bug-33308887: added below header for security scans
        self.send_header("Strict-Transport-Security", "max-age=31536000")     
 
# systemctl restart ovirt-provider-ovn
 
# curl -s -I -k https://localhost:35357
HTTP/1.0 501 Unsupported method ('HEAD')
Server: BaseHTTP/0.6 Python/3.6.8
Date: Wed, 13 Sep 2023 17:34:32 GMT
Strict-Transport-Security: max-age=31536000
Connection: close
Content-Type: application/json
Content-Length: 137
ovirt-websocket-proxyサービス・ポートの場合は、response.pyファイルを変更します。
# vi /usr/lib/python3.6/site-packages/webob/response.py
 
        # Initialize headers
        self._headers = None
        if headerlist is None:
            self._headerlist = []
        else:
            self._headerlist = headerlist
        self._headerlist.append(('Strict-Transport-Security', 'max-age=31536000'))  
                  
# systemctl restart ovirt-websocket-proxy
 
# curl -s -I -k https://localhost:6100
HTTP/1.1 405 Method Not Allowed
Server: WebSockify Python/3.6.8
Date: Wed, 13 Sep 2023 18:31:12 GMT
Strict-Transport-Security: max-age=31536000
Connection: close
Content-Type: text/html;charset=utf-8
Content-Length: 472

モニタリング

次の項では、仮想化環境のGrafanaダッシュボードおよびイベント通知を設定および使用する方法について説明します。

イベント通知の使用

次のセクションでは、仮想化環境のイベントを監視するイベント通知の設定方法について説明します。 特定のイベントが発生したときにイベント通知を電子メールで送信し、指定のユーザーにアラートを通知するようにManagerを構成するか、簡易ネットワーク管理プロトコル(SNMP)トラップを有効にして仮想化環境を監視できます。

詳細は、「Oracle Linux Virtualization Manager: アーキテクチャおよびプランニング・ガイド」のイベント・ロギングおよび通知を参照してください。

エンジンに対するイベント通知サービスの構成

イベント通知を電子メール受信者に正しく送信するには、エンジンのメール・サーバーを構成し、ovirt-engine-notifierサービスを有効にする必要があります。 管理ポータルでのイベント通知の作成の詳細は、「管理ポータルでのイベント通知の作成」を参照してください。

エンジンの通知サービスを構成するには:
  1. Managerを実行しているホストにログインします。

  2. ovirt-engine-notifier.conf90-email-notify.confという名前の新しいファイルにコピーします。

    # cp /usr/share/ovirt-engine/services/ovirt-engine-notifier/ovirt-engine-notifier.conf/ \
    etc/ovirt-engine/notifier/notifier.conf.d/90-email-notify.conf
  3. 90-email-notify.confファイルを編集するには、EMAIL Notificationsセクションを除くすべてを削除します。

    ノート:

    仮想化環境でSNMPトラップも構成する予定の場合は、ovirt-notifier.confファイルのSNMP_TRAP Notificationsセクションから20-snmp.confという名前のファイルに値をコピーすることもできます。 詳細は、「SNMPトラップを送信するエンジンの構成」を参照してください。

  4. 正しい電子メール変数を入力します。 このファイルは、元のovirt-engine-notifier.confファイルの値をオーバーライドします。
    ---------------------
    # EMAIL Notifications #
    ---------------------
    
    # The SMTP mail server address. Required.
    MAIL_SERVER=myemailserver.mycompany.com
    
    # The SMTP port (usually 25 for plain SMTP, 465 for SMTP with SSL, 587 for SMTP with TLS)
    MAIL_PORT=25
    
    # Required if SSL or TLS enabled to authenticate the user. Used also to specify 'from' 
      user address if mail server
    # supports, when MAIL_FROM is not set. Address is in RFC822 format
    MAIL_USER=email.example.com
    
    # Required to authenticate the user if mail server requires authentication or if SSL or 
      TLS is enabled
    SENSITIVE_KEYS="${SENSITIVE_KEYS},MAIL_PASSWORD"
    MAIL_PASSWORD=
    
    # Indicates type of encryption (none, ssl or tls) should be used to communicate with 
      mail server.
    MAIL_SMTP_ENCRYPTION=none
    
    # If set to true, sends a message in HTML format.
    HTML_MESSAGE_FORMAT=false
    
    # Specifies 'from' address on sent mail in RFC822 format, if supported by mail server.
    MAIL_FROM=myovirtengine@mycompany.com
    
    # Specifies 'reply-to' address on sent mail in RFC822 format.
    MAIL_REPLY_TO=myusername@mycompany.com
    
    # Interval to send smtp messages per # of IDLE_INTERVAL
    MAIL_SEND_INTERVAL=1
    
    # Amount of times to attempt sending an email before failing.
    MAIL_RETRIES=4

    ノート:

    ovirt-engine-notifier.confファイル内のイベント通知に使用できるその他のパラメータの詳細は、「oVirtドキュメント」を参照してください。

  5. ovirt-engine-notifierサービスを有効化して再起動し、変更内容をアクティブ化します。

    # systemctl daemon-reload
    # systemctl enable ovirt-engine-notifier.service
    # systemctl restart ovirt-engine-notifier.service
管理ポータルでのイベント通知の作成

イベント通知を作成する前に、着信自動メッセージを処理してこれらのメッセージを配信リストに配信できる電子メール・サーバーにアクセスできる必要があります。 また、エンジンでイベント通知サービスを構成する必要もあります。 詳細は、「エンジンに対するイベント通知サービスの構成」を参照してください

管理ポータルでイベント通知を作成するには:

  1. 管理」に移動して「ユーザー」をクリックします。

    ユーザー」ペインが開きます。

  2. ユーザー名」列で、ユーザーの名前をクリックして、ユーザーの詳細ビューを表示します。

    ノート:

    ユーザーは、作成されて適切な権限が割り当てられるまで、管理ポータルに表示されません。 詳細は、「新規ユーザー・アカウントの作成」を参照してください。

  3. イベント通知タブをクリックします。

  4. 「イベントの管理」をクリックします。

    イベント通知の追加ダイアログ・ボックスが開きます。

  5. 通知する個々のイベントまたはイベント・トピック領域の横にあるチェック・ボックスを選択して、通知を作成するイベントを選択します。

    通知に使用可能なイベントは、複数のトピック領域にグループ化されています。 デフォルトでは、最上位レベルのトピック領域(一般ホスト・イベントなど)のチェック・ボックスを選択すると、そのトピック領域のすべてのイベントが選択されます。 オプションで、すべて開くまたはすべて閉じるをクリックして、すべてのイベント・トピック領域を展開または縮小できます。 また、特定の最上位レベルのトピック領域の横にある矢印アイコンをクリックすると、そのトピック領域に関連付けられたイベントを展開または縮小できます。

  6. メール受信者」フィールドに、電子メール・アドレスを入力します。

  7. 変更を保存する場合は、「OK」をクリックします。

管理ポータルでのイベント通知の取消し
管理ポータルでイベント通知を取り消すには:
  1. 管理」に移動して「ユーザー」をクリックします。

    ユーザー」ペインが開きます。

  2. ユーザー名」列で、ユーザーの名前をクリックして、ユーザーの詳細ビューを表示します。

  3. イベント通知タブをクリックします。

  4. 「イベントの管理」をクリックします。

    イベント通知の追加ダイアログ・ボックスが開きます。

  5. すべて開くをクリックするか、またはトピック固有の展開オプションをクリックしてイベントを表示します。

  6. 該当するチェック・ボックスの選択を解除して、該当するイベントの通知を取り消します。

  7. 「OK」をクリックして変更を保存します。

SNMPトラップを送信するエンジンの構成

SNMPトラップを1つ以上の外部SNMPマネージャに送信するようにManagerを構成できます。 SNMPトラップには、仮想化環境を監視するために使用するシステム・イベント情報が含まれます。 SNMPマネージャに送信されるトラップの数とタイプはエンジン内で定義できます。

このタスクを実行する前に、トラップを受信する1つ以上の外部SNMPマネージャを構成し、次の詳細を確認しておく必要があります。

  • SNMPマネージャとして機能するマシンのIPアドレスまたは完全修飾ドメイン名。 オプションで、SNMPマネージャがトラップ通知を受信するポートを決定します。デフォルトのUDPポートは162です。

  • SNMPコミュニティ。 複数のSNMPマネージャが1つのコミュニティに属することができます。 管理システムおよびエージェントは、同じコミュニティ内にある場合にのみ通信できます。 デフォルトのコミュニティはpublicです。

  • アラートのトラップ・オブジェクト識別子。 エンジンでは、1.3.6.1.4.1.2312.13.1.1のデフォルトOIDが提供されます。 このOIDが定義されると、イベント情報が追加されてすべてのトラップ・タイプがSNMPマネージャに送信されます。

    ノート:

    • デフォルト・トラップを変更すると、生成されたトラップがエンジンの管理情報ベースに準拠しなくなります。

    • エンジンは、/usr/share/doc/ovirt-engine/mibs/OVIRT-MIB.txtおよび/usr/share/doc/ovirt-engine/mibs/REDHAT-MIB.txtの管理情報ベースを提供します。 SNMPマネージャにMIBを読み込んでから続行してください。

エンジンでSNMPトラップを構成するには:

  1. Managerを実行しているホストにログインします。

  2. エンジンで、SNMP構成ファイルを作成します。
    # vi /etc/ovirt-engine/notifier/notifier.conf.d/20-snmp.conf

    デフォルトのSNMP構成値は、次のディレクトリ・パスにあるイベント通知構成ファイル(ovirt-engine-notifier.conf)のエンジンに存在: / usr/share/ovirt-engine/services/ovirt-engine-notifier/ovirt-engine-notifier.conf. このステップで指定する値は、このファイルで提供されるデフォルト値またはサンプル値に基づいています。 構成設定が再起動後も保持されるようにするには、ovirt-engine-notifier.confファイルを編集するのではなく、SNMP構成(20-snmp.conf)のオーバーライド・ファイルを定義します。詳細は、「エンジンでのイベント通知サービスの構成」を参照してください。

  3. SNMPマネージャ、SNMPコミュニティおよびOIDを次の形式で指定します。
    SNMP_MANAGERS="manager1.example.com manager2.example.com:162"
    SNMP_COMMUNITY=public
    SNMP_OID=1.3.6.1.4.1.2312.13.1.1
    20-snmp.confファイルでは、次の値を構成できます。
    #-------------------------#
    # SNMP_TRAP Notifications #
    #-------------------------#
    # Send v2c snmp notifications
    
    # Minimum SNMP configuration
    #
    # Create /etc/ovirt-engine/notifier/notifier.conf.d/20-snmp.conf with:
    # SNMP_MANAGERS="host"
    # FILTER="include:*(snmp:) ${FILTER}"
    
    # Default whitespace separated IPv4/[IPv6]/DNS list with optional port, default is 162.
    # SNMP_MANAGERS="manager1.example.com manager2.example.com:164"
    SNMP_MANAGERS=
    
    # Default SNMP Community String.
    SNMP_COMMUNITY=public
    
    # SNMP Trap Object Identifier for outgoing notifications.
    # { iso(1) org(3) dod(6) internet(1) private(4) enterprises(1) redhat(2312) ovirt(13) 
      engine(1) notifier(1) }
    #
    # Note: changing the default will prevent generated traps from complying with 
      OVIRT-MIB.txt.
    SNMP_OID=1.3.6.1.4.1.2312.13.1.1
    
    # Default SNMP Version. SNMP version 2 and version 3 traps are supported
    # 2 = SNMPv2
    # 3 = SNMPv3
    SNMP_VERSION=2
    
    # The engine id used for SNMPv3 traps
    SNMP_ENGINE_ID=
    
    # The user name used for SNMPv3 traps
    SNMP_USERNAME=
    
    # The SNMPv3 auth protocol. Supported values are MD5 and SHA.
    SNMP_AUTH_PROTOCOL=
    
    # The SNMPv3 auth passphrase, used when SNMP_SECURITY_LEVEL is set to AUTH_NOPRIV 
      and AUTH_PRIV
    SNMP_AUTH_PASSPHRASE=
    
    # The SNMPv3 privacy protocol. Supported values are AES128, AES192 and AES256.
    # Be aware that AES192 and AES256 are not defined in RFC3826, so please verify
    # that your SNMP server supports those protocols before enabling them.
    SNMP_PRIVACY_PROTOCOL=
    
    # The SNMPv3 privacy passphrase, used when SNMP_SECURITY_LEVEL is set to AUTH_PRIV
    SNMP_PRIVACY_PASSPHRASE=
    
    # The SNMPv3 security level.
    # 1 = NOAUTH_NOPRIV
    # 2 = AUTH_NOPRIV
    # 3 = AUTH_PRIV
    SNMP_SECURITY_LEVEL=1
    
    # SNMP profile support
    #
    # Multiple SNMP profiles are supported.
    # Specify profile settings by using _profile suffix,
    # for example, to define a profile to sent specific
    # message to host3, specify:
    # SNMP_MANAGERS_profile1=host3
    # FILTER="include:VDC_START(snmp:profile1) ${FILTER}"
  4. SNMPマネージャに送信するイベントを定義します。

    デフォルトでは、次のデフォルト・フィルタがovirt-engine-notifier.confファイルに定義されています。このフィルタをオーバーライドしたり、オーバーライド・フィルタを適用しない場合、通知は送信されません。
    FILTER="exclude:\*"
    次に、イベント・フィルタの他の一般的な例を示します。
    • すべてのイベントをデフォルトSNMPプロファイルに送信します。
      FILTER="include:\*(snmp:) ${FILTER}"
    • 重大度がERRORまたはALERTのすべてのイベントをデフォルトのSNMPプロファイルに送信します。
      FILTER="include:\*:ERROR(snmp:) ${FILTER}"
       FILTER="include:\*:ALERT(snmp:) ${FILTER}"
  5. ファイルを保存します。

  6. ovirt-engine-notifierサービスを起動し、このサービスが起動時に起動されることを確認します。
     # systemctl start ovirt-engine-notifier.service
     # systemctl enable ovirt-engine-notifier.service
  7. (オプション)トラップがSNMPマネージャに送信されていることを検証します。

Grafanaの使用

次の項では、仮想化環境でGrafanaダッシュボードを設定および使用する方法について説明します。

重要:

データ・ウェアハウス・データベース、データ・ウェアハウス・サービスおよびGrafanaをすべて同じマシンにインストールする必要があります。ただし、これらの各コンポーネントは別々のマシンにインストールできます。

詳細は、「Oracle Linux Virtualization Manager: アーキテクチャおよびプランニング・ガイド」のGrafanaによるモニタリングを参照してください。

Grafanaの使用方法の詳細は、「Grafanaサイト」を参照してください。

Grafanaのインストール

Grafana統合は、標準エンジンまたは自己ホスト・エンジンのインストールでengine-setupを実行すると、デフォルトで有効化およびインストールされます。 一部のシナリオでは、アップグレードの実行、バックアップのリストア、データ・ウェアハウスの別のマシンへの移行後など、Grafanaを手動でインストールする必要がある場合があります。

Grafanaを手動でインストールするには:

  1. 「(自己ホスト型エンジンのみ)」環境をグローバル・メンテナンス・モードにします:

              # hosted-engine --set-maintenance --mode=global
            
  2. Grafanaをインストールするマシンにログインします。 これは、データ・ウェアハウスが構成されているマシン(通常はエンジン・マシン)と同じマシンである必要があります。

  3. 次のようにengine-setupコマンドを実行して、Grafanaの再構成を開始します:

    # engine-setup --reconfigure-optional-components
  4. Enterキーを押してYesと応答し、このマシンにGrafanaをインストールします。

    Configure Grafana on this host (Yes, No) [Yes]:
  5. 「(自己ホスト型エンジンのみ)」グローバル・メンテナンス・モードを無効にします。

              # hosted-engine --set-maintenance --mode=none
            

インストール後は、次のいずれかの方法でGrafanaダッシュボードにアクセスできます:

  • https://<engine FQDN or IP address>/ovirt-engine-grafanaに移動します。

  • web管理のようこそページで「モニタリング・ポータル」をクリックします。

詳細は、「Oracle Linux Virtualization Manager: アーキテクチャおよびプランニング・ガイド」のデフォルトのGrafanaダッシュボードを参照してください。

Grafanaを使用したシングル・サインオンのユーザーの構成

engine-setupは、既存のユーザーが管理ポータルからログインできるようにGrafanaを自動的に構成しますが、これらのユーザーをGrafana内に自動的に作成しません。

Grafanaを使用してシングル・サインオンのユーザーを構成するには:

  1. Managerを実行しているホストにログインします。

  2. ユーザー・アカウントを編集して、Eメール・アドレスがまだ定義されていない場合は追加します。次に例を示します:

    # ovirt-aaa-jdbc-tool user edit test1 --attribute=email=jdoe@example.com
    updating user test1...
    user updated successfully
  3. 既存の管理ユーザー(最初に構成した管理者)を使用してGrafanaにログインします。
  4. 「構成」、「ユーザー」の順にナビゲートし、「招待」を選択します。
  5. ユーザー・アカウントのEメール・アドレスと名前を入力し、ロールを選択します。
  6. 次のいずれかのオプションを使用して、招待を送信します:

    • 「招待メールを送信」を選択し、「送信」をクリックします。 このオプションには、Grafanaマシンで構成された操作可能なローカル・メール・サーバーが必要です。

    • 「保留中の招待」を選択

      • 必要なエントリを検索
      • 「招待状のコピー」を選択
      • このリンクを使用して、ブラウザのアドレス・バーに直接貼り付けるか、別のユーザーに送信してアカウントを作成します。

      ノート:

      「保留中の招待」オプションを使用すると、電子メールは送信されず、電子メール・アドレスは存在する必要はありません。Managerユーザーの電子メール・アドレスとして構成されていれば、有効なアドレスは機能します。

このアカウントでログインするには:

  1. GrafanaにEメール・アドレスが構成されているアカウントを使用して、管理ポータルにログインします。
  2. Monitoring Portalを選択して、Grafanaダッシュボードを開きます。
  3. 「oVirtエンジン認証でサインイン」を選択します。

バックアップおよびリストア

engine-backupコマンド・ユーティリティを使用して、Oracle Linux Virtualization Managerを定期的にバックアップできます。 このツールは、エンジン・データベースおよび構成ファイルを1つのファイルにバックアップし、ovirt-engineサービスを中断せずに実行できます。

engine-backupコマンドには次の2つのモードがあります:

# engine-backup --mode=backup
# engine-backup --mode=restore

オプションとその関数の完全なリストを表示するには、engine-backup --helpを実行します。

基本オプションは次のとおりです:

--mode

コマンドがバックアップ操作を実行するか、リストア操作を実行するかを指定します。 使用可能なオプションは次のとおりです: backup (デフォルト)、restoreおよびverify

--file

バックアップ・ファイルのパスと名前を指定します(たとえば、file_name.backup)。 バックアップ・モードの場合、ファイルはバックアップが保存される場所です。 リストア・モードの場合、ファイルはバックアップ・データとして読み取られます。 デフォルトのパスは/var/lib/ovirt-engine-backup/です。

--log

ログ・ファイルのパスと名前を指定します(たとえば、log_file_name)。 このファイルは、バックアップまたはリストア操作を記録します。 デフォルトのパスは/var/log/ovirt-engine-backup/です。

--scope

バックアップまたはリストア操作のスコープを指定し、同じengine-backupコマンドで複数回指定できます。 4つのオプションがあります。
  • all (default) - すべてのデータベースおよび構成データのバックアップまたはリストア
  • files - システム上のファイルのみをバックアップまたはリストア
  • db - エンジン・データベースのみをバックアップまたはリストア
  • dwhdb - データ・ウェアハウス・データベースのみのバックアップまたはリストア

バックアップおよびリストアの詳細は、「oVirtドキュメント」管理ガイドを参照してください。

Managerのバックアップ

Managerをバックアップするには:

  1. Managerを実行しているホストにログインします。

    ノート:

    仮想マシン(スタンドアロン・エンジンまたは自己ホスト・エンジン)内でManagerを実行する場合は、エンジンを実行している仮想マシンにログインします。

  2. Managerの完全バックアップを作成します。 バックアップを作成する前に、ovirt-engineサービスを停止する必要はありません。

    # engine-backup --mode=backup --scope=all --file=path --log=path

    次の例は、engine-backupコマンドを使用してManagerの完全バックアップを作成する方法を示しています。 Managerバックアップのバックアップ・ファイルおよびログ・ファイルは、指定したパスに作成されます。

    # engine-backup --mode=backup --scope=all --file=backup/file/ovirt-engine-backup --log=backup/log/ovirt-engine-backup.log
    Backing up:
    Notifying engine
    - Files
    - Engine database 'engine'
    - DWH database 'ovirt_engine_history'
    Packing into file 'backup/file/ovirt-engine-backup'
    Notifying engine
    Done.
  3. (オプション)定期バックアップを実行するcronジョブを設定します。

    デフォルトでは、Managerは自動バックアップを実行しません。 Managerの定期バックアップを作成することをお薦めします。

    次の例は、crontab形式のファイルで定義されたcronジョブのサンプルを示します。

    today=`date +'%Y%m%d-%H%M'`
    engine-backup --mode=backup --scope=all --file=/backup/file/ovirt-engine-backup-${today} 
    --log=/backup/log/ovirt-engine-backup-${today}.log

Managerの完全バックアップのリストア

Managerの完全バックアップをリストアするには:

  1. Managerを実行しているホストにログインします。

    ノート:

    仮想マシン(スタンドアロン・エンジンまたは自己ホスト・エンジン)内でManagerを実行する場合は、エンジンを実行している仮想マシンにログインします。

  2. Managerに関連付けられたオブジェクトをクリーン・アップします。

    # engine-cleanup

    このengine-cleanupコマンドにより、構成ファイルが削除され、Managerに関連付けられているデータベースがクリーン・アップされます。

    次の例は、engine-cleanupコマンドの出力を示しています。

    # engine-cleanup
    [ INFO  ] Stage: Initializing
    [ INFO  ] Stage: Environment setup
              Configuration files: ...
              Log file: ...
              Version: otopi-1.7.8 (otopi-1.7.8-1.el7)
    [ INFO  ] Stage: Environment packages setup
    [ INFO  ] Stage: Programs detection
    [ INFO  ] Stage: Environment customization
              Do you want to remove all components? (Yes, No) [Yes]: Yes
              The following files were changed since setup:
              /etc/ovirt-engine/engine.conf.d/11-setup-sso.conf
              Remove them anyway? (Yes, No) [Yes]: Yes
    
              --== PRODUCT OPTIONS ==--
    
    [ INFO  ] Stage: Setup validation
              During execution engine service will be stopped (OK, Cancel) [OK]: OK
              All the installed ovirt components are about to be removed ...(OK, Cancel) 
              [Cancel]: OK
    [ INFO  ] Stage: Transaction setup
    [ INFO  ] Stopping engine service
    [ INFO  ] Stopping ovirt-fence-kdump-listener service
    [ INFO  ] Stopping dwh service
    [ INFO  ] Stopping Image I/O Proxy service
    [ INFO  ] Stopping vmconsole-proxy service
    [ INFO  ] Stopping websocket-proxy service
    [ INFO  ] Stage: Misc configuration
    [ INFO  ] Stage: Package installation
    [ INFO  ] Stage: Misc configuration
    [ INFO  ] Backing up PKI configuration and keys
    ...
    [ INFO  ] Clearing Engine database engine
    ...
    [ INFO  ] Clearing DWH database ovirt_engine_history
    [ INFO  ] Removing files
    [ INFO  ] Reverting changes to files
    ...
    [ INFO  ] Stage: Transaction commit
    [ INFO  ] Stage: Closing up
    
              --== SUMMARY ==--
    
              Engine setup successfully cleaned up
              A backup of PKI configuration and keys is available at ...
              ovirt-engine has been removed
              A backup of the Engine database is available at ...
              A backup of the DWH database is available at ...
    
              --== END OF SUMMARY ==--
    
    [ INFO  ] Stage: Clean up
              Log file is located at ...
    [ INFO  ] Generating answer file ...
    [ INFO  ] Stage: Pre-termination
    [ INFO  ] Stage: Termination
    [ INFO  ] Execution of cleanup completed successfully
  3. Managerの完全バックアップをリストアします。

    Managerの完全バックアップをリストアするには、次の形式のengine-backupコマンドが使用されます。

    engine-backup --mode=restore --scope=all --file=path --log=path --restore-permissions

    次の例は、engine-backupコマンドを使用してManagerの完全バックアップをリストアする方法を示しています。

    # engine-backup --mode=restore --scope=all --file=backup/file/ovirt-engine-backup \
      --log=backup/log/ovirt-engine-backup.log --restore-permissions
    Preparing to restore:
    - Unpacking file 'backup/file/ovirt-engine-backup'
    Restoring:
    - Files
    - Engine database 'engine'
      - Cleaning up temporary tables in engine database 'engine'
      - Updating DbJustRestored VdcOption in engine database
      - Resetting DwhCurrentlyRunning in dwh_history_timekeeping in engine database
      - Resetting HA VM status
    ------------------------------------------------------------------------------
    Please note:
    
    The engine database was backed up at 2019-03-25 12:48:02.000000000 -0700 .
    
    Objects that were added, removed or changed after this date, such as virtual
    machines, disks, etc., are missing in the engine, and will probably require
    recovery or recreation.
    ------------------------------------------------------------------------------
    - DWH database 'ovirt_engine_history'
    You should now run engine-setup.
    Done.
  4. engine-setupコマンドを実行して、リストアされたManagerの設定を完了します。

    # engine-setup    

    このコマンドによりファイアウォールが再構成され、Managerサービスが正しく構成されます。

  5. Managerにログインし、バックアップに対してManagerがリストアされたことを確認します。