機械翻訳について

4 自己ホスト・エンジンのデプロイメント

Oracle Linux Virtualization Managerでは、自己ホスト・エンジンとは仮想化された環境のことであり、その環境内にあるホストの仮想マシン内でエンジンが実行されます。 エンジン用の仮想マシンは、ホスト構成プロセスの一環として作成されます。 また、エンジンはホスト構成と並行してインストールおよび構成されます。

エンジンは物理ハードウェア上ではなく仮想マシンとして実行されるため、自己ホスト・エンジンに必要な物理リソースは少なくなります。 また、エンジンは高可用性に設定されているため、エンジン仮想マシンを実行しているホストがメンテナンス・モードになったり、予期せず失敗した場合、仮想マシンは環境内の別のホストに自動的に移行されます。 少なくとも2つのKVMホストが必要です。

概念的な情報、トラブルシューティングおよび管理タスクを確認するには、oVirtドキュメントのoVirt自己ホスト・エンジン・ガイドを参照してください。

自己ホスト・エンジンをデプロイするには、ホストでOracle Linux 8.8 (またはそれ以降のOracle Linux 8リリース)の新規インストールを実行し、Oracle Linux Virtualization Managerリリース4.5パッケージをインストールしてから、ホストされたエンジン・デプロイメント・ツールを実行して構成を完了します。

ノート:

GlusterFS記憶域を使用するハイパーコンバージド・インフラストラクチャとして自己ホスト・エンジンをデプロイする場合は、自己ホスト・エンジンをデプロイする前にGlusterFSをデプロイする必要があります。 「GlusterFS記憶域のデプロイ」を参照してください。

コマンドラインまたはCockpitポータルを使用して、自己ホスト・エンジンをデプロイすることもできます。 コマンドラインを使用する場合は、「コマンドラインを使用したデプロイ」に進みます。 Cockpitポータルを使用する場合は、「Cockpitポータルを使用したデプロイ」に進みます。

ノート:

プロキシの背後にある場合は、コマンドライン・オプションを使用してデプロイする必要があります。

自己ホスト・エンジンの前提条件

自己ホスト・エンジンをデプロイする前に、「要件およびスケーラビリティ制限」に加えて、次の前提条件を満たす必要があります。

  • 2つ以上のKVMホスト。
  • フォワードおよびリバース・ルック・アップ・レコードがDNSに設定された、エンジンおよびホストの完全修飾ドメイン名。

  • oVirtエンジン・アプライアンス用のホスト上の5 GB以上のディレクトリ。 デプロイメント・プロセスでは、/var/tmpディレクトリにアプライアンス・ファイルを抽出するための十分な領域があるかどうかがチェックされます。 /var/tmpディレクトリに十分な領域がない場合、別のディレクトリを指定するか、外部ストレージをマウントできます。

    ノート:

    VDSMユーザーおよびKVMグループには、ディレクトリに対する読取り、書込みおよび実行権限が必要です。

  • エンジン仮想マシン専用のデータ記憶域ドメインとして使用するために用意された74 GB以上の記憶域。 データ記憶域ドメインは、自己ホスト・エンジンのデプロイメント時に作成されます。

    iSCSIストレージを使用している場合は、自己ホスト・エンジンの記憶域ドメインと追加の記憶域ドメインに同じiSCSIターゲットを使用しないでください。

    注意:

    データ・センターのアクティブなデータ記憶域ドメインが1つのみの場合に、そのドメインが破損した場合、新しいデータ記憶域ドメインを追加したり、破損したデータ記憶域ドメインを削除することはできません。 このようなデータ・センターに自己ホスト・エンジンをデプロイして、そのデータ記憶域ドメインが破損した場合は、自己ホスト・エンジンを再デプロイする必要があります。

  • 自己ホスト・エンジンのデプロイに使用するホストは、yum.oracle.comにアクセスできる必要があります。

自己ホスト・エンジンのデプロイ

自己ホスト・エンジンをデプロイする前に、Oracle Linux Virtualization ManagerホストでOracle Linux 8.8 (またはそれ以降のOracle Linux 8リリース)の新規インストールを実行する必要があります。 インストールISOは、Oracle Software Delivery Cloud (https://edelivery.oracle.com)からダウンロードできます。

  1. 「最小インストール」ベース環境を使用して、ホストにOracle Linux 8.8 (またはそれ以降のOracle Linux 8リリース)をインストールします。

    注意:

    インストールに「最小インストール」以外のベース環境を選択しないでください。選択しないと、ホストに不正なqemuおよびlibvirtバージョン、正しくないリポジトリが構成され、仮想マシン・コンソールにアクセスできなくなります。

    追加パッケージにより依存関係の問題が発生する可能性があるため、Managerパッケージをインストールするまで追加パッケージはインストールしないでください。

    「Oracle® Linux 8: Oracle Linuxのインストール」の手順に従います。

  2. Firewalldサービスが有効で起動していることを確認してください。

    firewalldの構成の詳細については、「Oracle® Linux 8: ファイアウォールの構成」のパケット・フィルタリング・ファイアウォールの構成を参照してください。

  3. 次のいずれかのステップを実行します:

    • ULN登録ホストの場合またはOracle Linux Managerを使用する場合

      必要なチャネルにシステムをサブスクライブします。

      1. ULN登録ホストの場合は、ULNユーザー名およびパスワードを使用してhttps://linux.oracle.comにログインします。 Oracle Linux Manager登録済ホストの場合は、内部サーバーURLにアクセスします。

      2. 「システム」タブで、登録済マシンのリストにあるそのホストの名前が付いたリンクをクリックします。

      3. 「システム詳細」ページで、「サブスクリプションの管理」をクリックします。

      4. 「システム・サマリー」ページで、利用できるチャネルのリストから必要なチャネルを選択し、右矢印をクリックしてサブスクライブ済チャネルのリストに移動します。 次のチャネルをシステムでサブスクライブします。

        • ol8_x86_64_baseos_latest

        • ol8_x86_64_appstream

        • ol8_x86_64_kvm_appstream

        • ol8_x86_64_ovirt45

        • ol8_x86_64_ovirt45_extras

        • ol8_x86_64_gluster_appstream

        • (VDSMの場合) ol8_x86_64_UEKR7

      5. 「サブスクリプションの保存」をクリックします。

      6. 必要なリポジトリを自動的に有効化/無効化するOracle Linux Virtualization Managerリリース4.5パッケージをインストールします。

        # dnf install oracle-ovirt-release-45-el8                    
    • Oracle Linux yumサーバー・ホストの場合

      Oracle Linux Virtualization Managerリリース4.5パッケージをインストールし、必要なリポジトリを有効にします。

      1. ol8_baseos_latest yumリポジトリを有効にします。

        # dnf config-manager --enable ol8_baseos_latest   
      2. 必要なリポジトリを自動的に有効化/無効化するOracle Linux Virtualization Managerリリース4.5パッケージをインストールします。

        # dnf install oracle-ovirt-release-45-el8   
      3. dnfコマンドを使用して、必要なリポジトリが有効になっていることを確認します。

        1. yumのキャッシュをクリアーします。

          # dnf clean all                
        2. 構成済リポジトリをリストし、必要なリポジトリが有効化されていることを確認します。

          # dnf repolist               

          次のリポジトリを有効にする必要があります:

          • ol8_baseos_latest

          • ol8_appstream

          • ol8_kvm_appstream

          • ovirt-4.5

          • ovirt-4.5-extra

          • ol8_gluster_appstream

          • (VDSMの場合) ol8_UEKR7

        3. 必要なリポジトリが有効になっていない場合は、config-managerを使用して有効にします。

          # dnf config-manager --enable repository                             
  4. ホストでUEK R7が実行されている場合:
    1. 「追加のカーネル・モジュール」パッケージをインストールします。
      # dnf install kernel-uek-modules-extra
    2. ホストを再起動します。
  5. ホスト・エンジンのデプロイ・ツールとエンジン・アプライアンスをインストールします。

    # dnf install ovirt-hosted-engine-setup -y

コマンドラインを使用したデプロイ

自己ホスト・エンジンは、コマンドラインからデプロイできます。 スクリプトは環境の詳細を収集し、それを使用してホストとエンジンを構成します。

  1. デプロイメントを開始します。 デフォルトでは、IPv6が使用されます。 IPv4を使用するには、--4オプションを指定します:

    # hosted-engine --deploy --4

    オプションで、--ansible-extra-varsオプションを使用してデプロイメントの変数を定義します。 たとえば:

    # hosted-engine --deploy --4 --ansible-extra-vars="@/root/extra-vars.yml"
    
    cat /root/extra-vars.yml
    ---
    he_pause_host: true
    he_proxy: "http://<host>:<port>"
    he_enable_keycloak: false

    詳細は、「oVirtドキュメント」を参照してください。

  2. はいと入力してデプロイメントを開始します。

    Continuing will configure this host for serving as hypervisor and will create a local VM 
    with a running engine. The locally running engine will be used to configure a new storage 
    domain and create a VM there. At the end the disk of the local VM will be moved to the 
    shared storage.
    Are you sure you want to continue? (Yes, No)[Yes]:

    ノート:

    hosted-engineスクリプトにより、仮想マシンが作成され、cloud-initを使用して構成されます。 また、スクリプトによりengine-setupが実行され、システムが再起動されて、高可用性エージェントで仮想マシンを管理できるようになります。

  3. データ・センターの名前を入力するか、デフォルトを受け入れます。

    Please enter the name of the data center where you want to deploy this hosted-engine
    host. Data center [Default]: 
  4. クラスタの名前を入力するか、デフォルトを受け入れます。

    Please enter the name of the cluster where you want to deploy this hosted-engine host. 
    Cluster [Default]: 
  5. Keycloak統合は、エンジンの内部シングル・サインオン(SSO)プロバイダ向けのテクノロジ・プレビュー機能であり、AAAは非推奨です。 デフォルトのレスポンスは「はい」ですが、これはプレビュー機能であるため、「いいえ」と入力します。

    Configure Keycloak integration on the engine(Yes, No) [Yes]:No
  6. ネットワークを構成します。

    1. 表示されるゲートウェイが正しい場合は、Enterキーを押してネットワークを構成します。

    2. スクリプトがホストの接続を確認できるように、同じサブネット上のping可能なアドレスを入力してください。

      Please indicate a pingable gateway IP address [X.X.X.X]:
    3. スクリプトにより、環境の管理ブリッジとして使用できるNICが検出されます。 デフォルトを選択します。

      Please indicate a nic to set ovirtmgmt bridge on: (eth1, eth0) [eth1]:
  7. 仮想マシンのインストールにカスタム・アプライアンスを使用する場合は、OVAアーカイブへのパスを入力します。 それ以外の場合は、このフィールドを空のままにすると、oVirtエンジン・アプライアンスが使用されます。

    If you want to deploy with a custom engine appliance image, please specify the path to 
    the OVA archive you would like to use.
    Entering no value will use the image from the ovirt-engine-appliance rpm, 
    installing it if needed.
    Appliance image path []:
  8. エンジン仮想マシンの完全修飾ドメイン名を指定します。

    Please provide the FQDN you would like to use for the engine appliance.
     Note: This will be the FQDN of the engine VM you are now going to launch,
     it should not point to the base host or to any other existing machine.
     Engine VM FQDN:  manager.example.com
     Please provide the domain name you would like to use for the engine appliance.
     Engine VM domain: [example.com]
  9. エンジンのルート・パスワードを入力して確認します。

    Enter root password that will be used for the engine appliance:
    Confirm appliance root password:
  10. オプションで、SSH公開キーを入力して、ルート・ユーザーとしてエンジンにログインできるようにして、ルート・ユーザーに対してSSHアクセスを有効にするかどうかを指定できます。

    Enter ssh public key for the root user that will be used for the engine 
    appliance (leave it empty to skip):
    Do you want to enable ssh access for the root user (yes, no, without-password) 
    [yes]:
    You may provide an SSH public key, that will be added by the deployment script to the 
    authorized_keys file of the root user in the engine appliance.
    This should allow you passwordless login to the engine machine after deployment.
    If you provide no key, authorized_keys will not be touched.
    SSH public key []:
    [WARNING] Skipping appliance root ssh public key
    Do you want to enable ssh access for the root user? (yes, no, without-password) [yes]:
  11. 仮想マシンのCPUとメモリーの構成を入力します。

    Please specify the number of virtual CPUs for the VM (Defaults to appliance 
    OVF value): [4]:
    Please specify the memory size of the VM in MB. The default is the appliance 
    OVF value [16384]:
  12. エンジン仮想マシンのMACアドレスを入力するか、ランダムに生成されたMACアドレスを受け入れます。

    You may specify a unicast MAC address for the VM or accept a randomly 
    generated default [00:16:3e:3d:34:47]:

    ノート:

    DHCPを使用してエンジン仮想マシンにIPアドレスを指定する場合は、このMACアドレスに有効なDHCP予約があることを確認してください。 デプロイメント・スクリプトでは、DHCPサーバーは構成されません。

  13. 仮想マシンのネットワーキングの詳細を入力します。

    How should the engine VM network be configured (DHCP, Static)[DHCP]?

    ノート:

    「Static」を指定した場合は、エンジンのIPアドレスを入力します。 静的IPアドレスは、ホストと同じサブネットに属する必要があります。 たとえば、ホストが10.1.1.0/24の場合、エンジン仮想マシンのIPは同じサブネット範囲(10.1.1.1-254/24)にある必要があります。

    Please enter the IP address to be used for the engine VM [x.x.x.x]:
    Please provide a comma-separated list (max 3) of IP addresses of domain 
    name servers for the engine VM
    Engine VM DNS (leave it empty to skip):
  14. エンジン仮想マシンおよびベース・ホストのエントリを、仮想マシンの/etc/hostsファイルに追加するかどうかを指定します。 ホスト名が解決可能であることを確認してください。

    Add lines for the appliance itself and for this host to /etc/hosts on the engine VM?
    Note: ensuring that this host could resolve the engine VM hostname is still up to you.
    Add lines to /etc/hosts? (Yes, No)[Yes]:
  15. SMTPサーバーの名前とTCPポート番号、電子メール通知の送信に使用する電子メール・アドレス、およびこれらの通知を受信する電子メール・アドレスのカンマ区切りリストを指定します。 または、[Enter]を押してデフォルトを受け入れます。

    Please provide the name of the SMTP server through which we will send 
    notifications [localhost]:
    Please provide the TCP port number of the SMTP server [25]:
    Please provide the email address from which notifications will be sent 
    [root@localhost]:
    Please provide a comma-separated list of email addresses which will get 
    notifications [root@localhost]:
  16. admin@internalユーザーが管理ポータルにアクセスするためのパスワードを入力および確認します。

    Enter engine admin password:
    Confirm engine admin password:

    スクリプトにより仮想マシンが作成されますが、oVirtエンジン・アプライアンスのインストールが必要な場合は時間がかかる場合があります。 仮想マシンの作成後、スクリプトは情報の収集を続行します。

  17. 使用する記憶域のタイプを選択します。

    Please specify the storage you would like to use (glusterfs, iscsi, fc, 
    nfs)[nfs]:
    • NFSを選択した場合は、バージョン、記憶域への完全アドレスとパスおよび任意のマウント・オプションを入力します。

      Please specify the nfs version you would like to use (auto, v3, v4, 
      v4_1)[auto]:
      Please specify the full shared storage connection path to use (example: 
      host:/path): 
      storage.example.com:/hosted_engine/nfs
      If needed, specify additional mount options for the connection to the 
      hosted-engine storage domain []:
    • iSCSIを選択した場合、ポータルの詳細を入力し、自動検出されたリストからターゲットとLUNを選択します。 デプロイメント中に選択できるiSCSIターゲットは1つのみですが、同じポータル・グループのすべてのポータルを接続するためのマルチパス機能がサポートされています。

      ノート:

      複数のiSCSIターゲットを指定するには、自己ホスト・エンジンをデプロイする前にマルチパス機能を有効にする必要があります。 また、様々なオプションでマルチパスをインストールおよび構成するスクリプトを生成するMultipath Helperツールもあります。

      Please specify the iSCSI portal IP address:
        Please specify the iSCSI portal port [3260]:
        Please specify the iSCSI discover user:
        Please specify the iSCSI discover password:
        Please specify the iSCSI portal login user:
        Please specify the iSCSI portal login password:
      
        The following targets have been found:
        	[1]	iqn.2017-10.com.redhat.example:he
        		TPGT: 1, portals:
        			192.168.1.xxx:3260
        			192.168.2.xxx:3260
        			192.168.3.xxx:3260
      
        Please select a target (1) [1]: 1
      
        The following luns have been found on the requested target:
          [1] 360003ff44dc75adcb5046390a16b4beb   199GiB  MSFT   Virtual HD
              status: free, paths: 1 active
      
        Please select the destination LUN (1) [1]:
    • GlusterFSを選択した場合は、記憶域への完全アドレスとパスおよび任意のマウント・オプションを入力します。 レプリカ3 Glusterストレージのみサポートされています。

      * Configure the volume as follows as per [Gluster Volume Options for Virtual 
        Machine Image Store] 
        (documentation/admin-guide/chap-Working_with_Gluster_Storage#Options 
        set on Gluster Storage Volumes to Store Virtual Machine Images)
      
        Please specify the full shared storage connection path to use 
      (example: host:/path): 
        storage.example.com:/hosted_engine/gluster_volume
        If needed, specify additional mount options for the connection to the 
      hosted-engine storage domain []:
      
    • Fibre Channelを選択した場合は、自動検出されたリストからLUNを選択します。 ホスト・バス・アダプタを構成して接続する必要があります。 デプロイメント・スクリプトによって使用可能なLUNが自動的に検出されますが、LUNに既存のデータが含まれていない必要があります。

      The following luns have been found on the requested target:
        [1] 3514f0c5447600351   30GiB   XtremIO XtremApp
        		status: used, paths: 2 active
      
        [2] 3514f0c5447600352   30GiB   XtremIO XtremApp
        		status: used, paths: 2 active
      
        Please select the destination LUN (1, 2) [1]:
  18. エンジン・ディスク・サイズを入力します。

    Please specify the size of the VM disk in GB: [50]:

    成功した場合、1つのデータ・センター、クラスタ、ホスト、記憶域ドメインおよびエンジン仮想マシンがすでに実行されています。

  19. オプションで、Oracle Linux Virtualization Manager管理ポータルにログインして、他のリソースを追加します。

    管理ポータルでは、エンジン仮想マシン、そのマシンを実行しているホスト、および自己ホスト・エンジンの記憶域ドメインに金の王冠のフラグが付きます。

  20. エンジン仮想マシンで必要なリポジトリを有効にします。

  21. オプションで、ovirt-engine-extension-aaa-ldap-setupインタラクティブ設定スクリプトを使用してディレクトリ・サーバーを追加し、環境にユーザーを追加できるようにします。

Cockpitポータルを使用したデプロイ

ノート:

プロキシの背後にある場合は、コマンドライン・オプションを使用して自己ホスト・エンジンをデプロイする必要があります。

Cockpitポータルを使用して自己ホスト・エンジンをデプロイするには、次のステップを実行します。

  1. Cockpitダッシュボードをインストールします。

    # dnf install cockpit-ovirt-dashboard -y
  2. firewalldのCockpitポート9090を開きます。

    # firewall-cmd --permanent --zone=public --add-port=9090/tcp
    # firewall-cmd --reload      
  3. Cockpitサービスの有効化と起動

    # systemctl enable --now cockpit.socket
  4. 次のURLからCockpitポータルにログインします。

    https://host_IP_or_FQDN:9090

  5. 自己ホスト・エンジンのデプロイメントを開始するには、「Virtualization」をクリックして、「Hosted Manager」を選択します。

  6. Hosted Manager」で「Start」をクリックします。

  7. エンジン仮想マシンの次の詳細を入力します。

    1. Engine VM FQDN」フィールドに、エンジン仮想マシンのFQDNを入力します。 ホストのFQDNを使用しないでください。

    2. MAC Address」フィールドに、エンジン仮想マシンのMACアドレスを入力するか、または空白のままにして、システムでランダムに生成されたアドレスを使用します。

    3. Network Configuration」ドロップダウン・リストから、「DHCP」または「Static」を選択します。

      • DHCP」を使用する場合は、エンジン仮想マシン用のDHCP予約(DHCPサーバーに事前設定されたIPアドレス)が必要です。 MAC Address」フィールドに、MACアドレスを入力します。

      • Static」を使用する場合は、仮想マシンIP、ゲートウェイ・アドレスおよびDNSサーバーを入力します。 IPアドレスは、ホストと同じサブネットに属する必要があります。

    4. ドロップダウンリストから「Bridge Interface」を選択します。

    5. 仮想マシンの「Root Password」を入力して確認します。

    6. Root SSH Access」を許可するかどうかを指定します。

    7. 仮想マシンの「Number of Virtual CPUs」を入力します。

    8. Memory Size (MiB)」を入力します。 使用可能なメモリーがフィールドの横に表示されます。

  8. 必要に応じて、「Advanced」をクリックして次の情報を指定します。

    • エンジン仮想マシンへのルート・アクセスに使用する「Root SSH Public Key」を入力します。

    • エンジン仮想マシンおよびベース・ホストのエントリを仮想マシンの/etc/hostsファイルに追加する場合は、「Edit Hosts File」チェック・ボックスを選択します。 ホスト名が解決可能であることを確認する必要があります。

    • 管理「Bridge Name」を変更するか、デフォルトのovirtmgmtを受け入れます。

    • 管理ブリッジの「Gateway Address」を入力します。

    • エンジンに追加する最初のホストの「Host FQDN」を入力します。 これは、デプロイメントに使用しているホストのFQDNです。

  9. 「次へ」をクリックします。

  10. admin@internalユーザーの「Admin Portal Password」を入力および確認します。

  11. オプションで、イベント通知を構成します。

    • SMTPサーバーの「Server Name」と「Server Port Number」を入力します。

    • Sender E-Mail Address」を入力します。

    • Recipient E-Mail Addresses」を入力します。

  12. 「次へ」をクリックします。

  13. エンジンとその仮想マシンの構成を確認します。 詳細が正しい場合、「Prepare VM」をクリックします。

  14. 仮想マシンのインストールが完了したら、「Next」をクリックします。

  15. ドロップダウン・リストから「Storage Type」を選択し、自己ホスト・エンジンの記憶域ドメインの詳細を入力します。

    • NFSの場合:

      1. Storage Connection」フィールドに、記憶域への完全アドレスおよびパスを入力します。

      2. 必要に応じて、「Mount Options」を入力します。

      3. Disk Size (GiB)」を入力します。

      4. ドロップダウン・リストから「NFS Version」を選択します。

      5. Storage Domain Name」を入力します。

    • iSCSIの場合:

      1. Portal IP Address」、「Portal Port」、「Portal Username」および「Portal Password」を入力します。

      2. Retrieve Target List」をクリックして、ターゲットを選択します。 デプロイメント中に選択できるiSCSIターゲットは1つのみですが、同じポータル・グループのすべてのポータルを接続するためのマルチパス機能がサポートされています。

        ノート:

        複数のiSCSIターゲットを指定するには、自己ホスト・エンジンをデプロイする前にマルチパス機能を有効にする必要があります。 また、様々なオプションでマルチパスをインストールおよび構成するスクリプトを生成するMultipath Helperツールもあります。

      3. Disk Size (GiB)」を入力します。

      4. Discovery Username」および「 Discovery Password」を入力します。

    • FibreChannelの場合:

      1. LUN ID」を入力します。 ホスト・バス・アダプタを構成して接続する必要があり、LUNに既存のデータが含まれていない必要があります。

      2. Disk Size (GiB)」を入力します。

    • Glusterストレージの場合:

      1. Storage Connection」フィールドに、記憶域への完全アドレスおよびパスを入力します。

      2. 必要に応じて、「Mount Options」を入力します。

      3. Disk Size (GiB)」を入力します。

  16. 「次へ」をクリックします。

  17. 記憶域構成を確認します。 詳細が正しい場合、「Finish Deployment」をクリックします。

  18. デプロイが完了したら、「閉じる」をクリックします

    成功した場合、1つのデータ・センター、クラスタ、ホスト、記憶域ドメインおよびエンジン仮想マシンがすでに実行されています。

  19. オプションで、Oracle Linux Virtualization Manager管理ポータルにログインして、他のリソースを追加します。

    管理ポータルでは、エンジン仮想マシン、そのマシンを実行しているホスト、および自己ホスト・エンジンの記憶域ドメインに金の王冠のフラグが付きます。

  20. エンジン仮想マシンで必要なリポジトリを有効にします。

  21. オプションで、ovirt-engine-extension-aaa-ldap-setupインタラクティブ設定スクリプトを使用してディレクトリ・サーバーを追加し、環境にユーザーを追加できるようにします。

  22. 自己ホスト・エンジンのステータスをCockpitで表示するには、「Virtualization」の「Hosted Engine」をクリックします。

高可用性の有効化

自己ホスト・エンジンが収容されているホストは、デフォルトでは高可用性ではありません。 自己ホスト・エンジンはホスト上の仮想マシン内で実行されるため、ホストの高可用性を構成しない場合、ホストのクラッシュ後の仮想マシン・リカバリはできません。

高可用性ホストの構成

予期しない障害が発生したときにクラスタ内のホストを応答させて使用可能にする場合は、フェンシングを使用する必要があります。 フェンシングにより、予期しないホスト障害への対応、電力の節約、ロード・バランシングおよび仮想マシンの可用性ポリシーの実施をクラスタで行えるようになります。 ホストの電源管理デバイスのフェンシング・パラメータを構成し、正確性をときどきテストする必要があります。

「非運用」ホストは、「非応答」ホストとは異なります。 動作しないホストはManagerと通信できますが、論理ネットワークが欠落しているなど、構成が適切ではありません。 応答しないホストはManagerと通信できません。

フェンシング操作では、応答しないホストが再起動され、指定された時間内にホストがアクティブ・ステータスに戻らない場合は、手動介入およびトラブルシューティングが行われるまで応答しないままとなります。

Managerはホストが再起動した後、プロキシ・ホストによって、または管理ポータルで手動で管理操作を実行できます。 応答しないホストで実行されているすべての仮想マシンが停止し、高可用性の仮想マシンは別のホストで再起動されます。 電源管理操作には少なくとも2つのホストが必要です。

重要:

高可用性を持つ仮想マシンをホストが実行する場合は、電源管理を有効にして構成する必要があります。

ホストの電源管理とフェンシングの構成

エンジンがフェンス・エージェントと直接通信しないため、Managerはプロキシを使用して、ホスト電力管理デバイスに電源管理コマンドを送信します。 ホスト・エージェント(VDSM)は、電源管理デバイスのアクションを実行し、環境内の別のホストをフェンシング・プロキシとして使用します。 つまり、電源管理操作用に少なくとも2つのホストが必要になります。

フェンシング・プロキシ・ホストを構成する場合、ホストが次の場所にあるか次の状態であることを確認します。

  • フェンシングを必要とするホストと同じクラスタ。

  • フェンシングを必要とするホストと同じデータ・センター。

  • UPまたはMaintenanceステータスで実行可能なままの状態。

電源管理操作は次の3つの方法で実行できます。

  • Managerの再起動後にManagerを使用した方法

  • プロキシ・ホストによる方法

  • 管理ポータルで手動で行う方法

ホストの電源管理とフェンシングを構成するには:

  1. 「コンピュート」をクリックし、「ホスト」を選択します。

  2. ホストを選択し、「編集」をクリックします。

  3. 「電源管理」タブをクリックします。

  4. 残りのフィールドを有効にするには、電源管理を有効にするをチェックします。

  5. Kdump統合をチェックして、カーネル・クラッシュ・ダンプの実行中にホストがフェンシングされないようにします。 Kdump統合はデフォルトで有効化されています。

    重要:

    既存のホストでKdump統合を有効または無効にした場合は、ホストを再インストールする必要があります。

  6. (オプション)ホストの電源管理がホストのクラスタのスケジュール・ポリシーによって制御されないようにする場合は、電源管理のポリシー制御を無効化を選択します。

  7. フェンス・エージェントを構成するには、フェンス・エージェントの追加の横にあるプラス記号(+)をクリックします。

    フェンス・エージェントの編集ペインが開きます。

  8. ホストの電源管理デバイスにアクセスするためのアドレス(IPアドレスまたはFQDN)を入力します。

  9. 電源管理デバイスにアクセスするために使用するアカウントのユーザー名パスワードを入力します。

  10. ドロップダウン・リストから電源管理デバイスのタイプを選択します。

  11. 電源管理デバイスがホストとの通信に使用するポート(SSH)番号を入力します。

  12. 電源管理デバイスのブレードの識別に使用するスロット番号を入力します。

  13. 電源管理デバイスのオプションを入力します。 キーと値のペアのカンマ区切りリストを使用します。
    • 「オプション」フィールドを空白のままにした場合、IPv4とIPv6の両方のアドレスを使用できます。

    • IPv4アドレスのみを使用するには、inet4_only=1と入力します。

    • IPv6アドレスのみを使用するには、inet6_only=1と入力します。

  14. セキュア」を選択すると、電源管理デバイスはホストに安全に接続できます。

    電源管理デバイスがサポートするssh、sslまたはその他の任意の認証プロトコルを使用できます。

  15. テスト」をクリックして設定が正しいことを確認し、「OK」をクリックします。

    成功した場合、Test Succeeded, Host Status is: onと表示されます。

    注意:

    電源管理パラメータ(ユーザーID、パスワード、オプションなど)は、設定中にManagerによってのみテストされ、その後は手動でテストされます。 誤ったパラメータに関するアラートを無視することを選択した場合、またはManager内で変更を行わずに電源管理ハードウェア上のパラメータが変更された場合、フェンシングはもっとも必要なときに障害が発生する可能性があります。

  16. フェンス・エージェントはデフォルトで順次での使用になっています。 フェンス・エージェントが使用される順序を変更するには:
    1. エージェントを順次で使用フィールドでフェンス・エージェントの順序をレビューします。

    2. 2つのフェンス・エージェントを同時実行するには、1つのフェンス・エージェントの横にある同時実行対象ドロップダウン・リストをクリックして、他のフェンス・エージェントを選択します。

      この同時実行フェンス・エージェント・グループに追加のフェンス・エージェントを追加できます。

  17. 拡張パラメータ」を展開し、上下のボタンを使用して、Managerがホストの電源管理プロキシ用のクラスタおよびdc (データ・センター)を検索する順序を指定します。

  18. 電源管理プロキシを追加するには:
    1. 電源管理プロキシの追加の横にあるプラス記号(+)をクリックします。

      追加するフェンス・プロキシ・プリファレンス・タイプを選択ペインが開きます。

    2. ドロップダウン・リストから電源管理プロキシを選択し、「OK」をクリックします。

      新しいプロキシが、電力管理プロキシのプリファレンスリストに表示されます。

    ノート:

    デフォルトでは、Managerはホストと同じクラスタ内のフェンシング・プロキシを検索します。 Managerがクラスタ内で一意のフェンシング・プロキシを見つけられなかった場合、データ・センターが検索されます。

  19. 「OK」をクリックします。

ホストのリストから、ホスト名の横にある感嘆符が表示されなくなり、電源管理およびフェンシングが正常に構成されたことが示されます。

ブート中のホスト・フェンシングの防止

電源管理およびフェンシングを構成した後でManagerを起動すると、静止時間(デフォルトでは5分)が経過した、電源管理が有効になっている応答のないホストに対して自動的にフェンシングが試行されます。 たとえば、ホストの起動時にManagerがホストをフェンシングしようとするシナリオを回避するために、静止時間を延長できます。 データ・センターの停止後は、ホストのブート・プロセスがManagerのブート・プロセスより通常長く時間がかかるため、このシナリオはデータ・センターの停止後に起こる場合があります。

静止時間は、engine-configコマンドのオプションDisableFenceAtStartupInSecを使用して構成できます。

# engine-config -s DisableFenceAtStartupInSec=number
フェンシング・パラメータのチェック

フェンシング・パラメータを自動的にチェックするには、PMHealthCheckEnabled(デフォルトではfalse)およびPMHealthCheckIntervalInSec(デフォルトでは3600秒)のengine-configオプションを構成します。

# engine-config -s PMHealthCheckEnabled=True
# engine-config -s PMHealthCheckIntervalInSec=number

PMHealthCheckEnabledをTrueに設定すると、PMHealthCheckIntervalInSecで指定された間隔ですべてのホスト・エージェントをチェックし、問題を検出すると警告を生成します。

追加の自己ホスト・エンジン・ホストのインストール

自己ホスト・エンジン・ホストは通常のホストと同じ方法で追加しますが、自己ホストエンジン・ホストとしてホストをデプロイするための追加ステップがあります。 共有記憶域ドメインが自動的に検出され、必要なときにエンジン仮想マシンをホストするためのフェイルオーバー・ホストとして、そのホストを使用できます。 また、自己ホスト・エンジン環境には通常のホストも追加できますが、エンジン仮想マシンをホストするためには使用できません。

重要:

開始する前に、「KVMホストの準備」を参照してください。

追加の自己ホスト・エンジン・ホストをインストールするには、次のステップを実行します。

  1. 管理ポータルで、「計算」に移動して「ホスト」をクリックします。

  2. 「新規」をクリックします。

    追加のホスト設定の詳細は、最新のアップストリームのoVirtドキュメントの管理ガイドを参照してください。

  3. ドロップダウン・リストを使用して、新規ホストのデータ・センターホスト・クラスタを選択します。

  4. 新しいホストの名前アドレスを入力します。 標準のSSHポート(ポート22)が「SSHポート」フィールドに自動入力されます。

  5. エンジンがホストにアクセスするために使用する認証方法を選択します。

    • パスワード認証を使用するrootユーザーのパスワードを入力します。

    • または、「SSH公開キー」フィールドに表示されているキーを、ホストの/root/.ssh/authorized_keysにコピーして、公開キー認証を使用します。

  6. オプションで、サポート対象の電源管理カードがホストにある場合は、電源管理を構成します。 詳細は、「ホストの電源管理とフェンシングの構成」を参照してください。

  7. ホスト・エンジン」サブタブをクリックします。

  8. 「デプロイ」ラジオ・ボタンを選択します。

  9. 「OK」をクリックします。

デプロイメントのクリーン・アップ

自己ホスト・エンジンのデプロイメントに失敗した場合、再試行の前にクリーン・アップ・タスクをいくつか実行する必要があります。

  1. ホスト・エンジンのクリーン・アップ・コマンドを実行します。

    # /usr/sbin/ovirt-hosted-engine-cleanup
  2. 記憶域を削除します。

    # rm -rf <storage_repo>/*
  3. ローカルの一時ホスト・エンジン仮想マシンの作成後にデプロイメントに失敗した場合は、ローカルの仮想マシン・リポジトリのクリーン・アップが必要になる場合があります。

    # rm -rf /var/tmp/localvm*

自己ホスト・エンジンのアップグレードまたは更新

「Oracle Linux Virtualization Manager: 管理ガイド」の「環境の4.5へのアップグレード」または「自己ホスト・エンジンの更新」を参照してください。