機械翻訳について

第 1 章 インストール後のOracle VM Serverの構成

Oracle VM Serverを正常にインストールした後、構成タスクを実行して環境をカスタマイズできます。 これらの構成タスクには、ベンダー固有のOracle VM Storage Connectプラグインのインストール、マルチパスの有効化、オプションでの診断ツールのインストールと構成および管理ドメインのメモリー・サイズの変更が含まれます。 Oracle VM Server for SPARCを使用している場合、ローカルZFSボリュームを作成するか、セカンダリ・サービス・ドメインを構成することもできます。

1.1 Oracle VM Storage Connectプラグインのインストール

ベンダー固有(非汎用)のOracle VM Storage Connectプラグインは、記憶域ベンダーから直接入手できます。 汎用Oracle VM Storage Connectプラグインは、Oracle VM Serverのインストール時にデフォルトですでにインストールされています。汎用プラグインのみを使用するよう選択する場合には、それ以上の操作は必要ありません。 ベンダー固有のOracle VM Storage Connectプラグインは、通常、Oracle VM Manager内から利用できる追加の管理機能を容易にします。

Oracle VM Storage Connectプラグインの詳細は、次のサイトに示されています。

https://www.oracle.com/virtualization/storage-connect-partner-program.html

Oracle VM Storage ConnectプラグインはRPMとして配布され、通常は単一のRPMですが、記憶域ベンダーによって複数のRPMが提供される場合があります。 記憶域ベンダーからOracle VM Storage ConnectプラグインのRPMを入手したら、このRPMをOracle VM Serverにインストールします。 特定の記憶域を使用するすべてのOracle VM ServerにRPMをインストールする必要があります。

Oracle VM Storage ConnectプラグインのRPMをインストールするには、Oracle VM Serverのコマンドラインで次のように入力します

# rpm -ivh filename.rpm

既存のOracle VM Storage Connectプラグインをアップグレードしている場合は、次のようにRPMアップグレード・パラメータを使用します。

# rpm -Uvh filename.rpm

Oracle VM Managerですでに管理されているOracle VM ServerにOracle VM Storage Connectプラグインをインストールまたはアップグレードする場合には、Oracle VM Serverを再検出してOracle VM Serverに関する最新の構成情報でデータベース・リポジトリを更新します。

Oracle VM Storage Connectプラグインをインストールして使用する前に、記憶域ベンダーのプラグインのインストールと構成に関するドキュメントを確認します。 ここでは説明されていない追加構成が必要な場合があります。

1.2 マルチパスI/Oサポートの有効化

この項では、マルチパスを有効にするのにユーザー処理が必要な場合にこれを行う方法について説明します。 必要なステップは、実装されている記憶域ハードウェアによって異なります。 そのため、次のステップはガイドラインとして使用し、SANハードウェアのドキュメントを優先する必要があります。 Oracle VMインストレーションおよびアップグレード・ガイドSPARCハードウェアへのOracle VM Serverのインストールセクションには、SPARCハードウェアでのマルチパス化の構成に関するガイドラインがすでにいくつか用意されています。 すべてのステップが環境に適用されるわけではありません。 ステップの詳細なリスト、ステップを実行する順序および特定の環境とのステップの関連性については、SANハードウェア・ベンダーのドキュメントを参照してください。

マルチパスを構成する一般的なステップ:
  1. Oracle VM環境で使用するSANハードウェアに適用するマルチパス構成を設計して文書化します。

  2. ホスト・バス・アダプタ(HBA)のドライバが存在することを確認します。 存在しない場合は、ドライバをインストールします。

  3. ファイバ・チャネル・スイッチで適切なゾーニングを構成します。

  4. ストレージ・アレイでLUNマスキングを構成します。

  5. ベンダーのドキュメントで指示されている場合は、ディスク・サブシステムでパス最適化機能(ALUAなど)を構成します。

  6. SANハードウェアにアクセスできる各Oracle VM Serverでファブリック情報をチェックします。 multipath -llおよび関連コマンドを使用します。

  7. Oracle VM Serverのファイル/etc/multipath.confに必要な変更を加えます。

    ノート

    環境内にあるすべてのOracle VM Serverのマルチパス構成ファイルに、まったく同じ変更を加える必要があります。

    重要

    構成パラメータuser_friendly_names/etc/multipath.conf構成ファイル内でnoに設定されたままであることが重要です。

    重要

    multipathセクションの下では、multipaths構成のサブセクションは、/etc/multipath.conf構成ファイル内ではサポートされません。

  8. マルチパス・デーモンmultipathdを再起動します。

  9. ファブリック情報を再度チェックして、構成を確認します。

  10. ベンダーのドキュメントに指示がある場合は、initrdを再構築します。

  11. Oracle VM Serverを再起動して、再起動後にSANおよびマルチパス構成が表示されることを確認します。

詳細および手順については、SANハードウェア・ベンダーのドキュメントを参照してください。

ノート

マルチパスSANからのブートはサポートされています。

1.3 記憶域用のソフトウェアRAIDの構成

記憶域リポジトリ用または仮想ディスク用にソフトウェアRAIDデバイスを使用できます。 ただし、これらのデバイスはOracle VM Server上で構成してからでないと、Oracle VM Managerで記憶域用のアレイとして検出できません。

重要

本番環境で使用する前に、デプロイメント環境で記憶域リポジトリとしてソフトウェアRAIDデバイスを使用することをお薦めします。

ソフトウェアRAIDデバイスをサーバー・プールの記憶域リポジトリとして使用する環境では、一定の仮想マシン移行操作で予期しない動作が発生する可能性があります。 たとえば、仮想マシンをクローンしてから同じサーバー・プールのOracle VM Serverのインスタンスへライブ・マイグレーションを行おうとすると、移行は仮想マシン・ディスクが存在しないことを示すエラーで失敗します。 この場合は、仮想マシンを停止してからOracle VM Serverの適切なインスタンスへ移動する必要があります。

ソフトウェアRAIDデバイスを記憶域として構成する手順は次のとおりです。

  1. rootユーザーでOracle VM Serverに接続します。

  2. ソフトウェアRAIDデバイスとして構成するローカル・ディスクまたはマルチパスLUNがマップ済デバイスとして使用できることを確認します。

    # ls /dev/mapper
  3. 次のように、multipath -llコマンドを実行してデバイスのWWIDを検索します。

    # multipath -ll
    
    device1-WWID dm-0 LSI,MR9261-8i
    size=558G features='1 queue_if_no_path' hwhandler='0' wp=rw
    `-+- policy='round-robin 0' prio=1 status=active
    `- 2:2:1:0 sdb 8:16 active ready running
    
    device2-WWID dm-1 LSI,MR9261-8i
    size=558G features='1 queue_if_no_path' hwhandler='0' wp=rw
    `-+- policy='round-robin 0' prio=1 status=active
    `- 2:2:2:0 sdc 8:32 active ready running
    ノート

    マルチパス・サービスmultipathdは、基礎となるデバイスを使用して、Oracle VM Serverから基礎となるデバイスへのI/Oをルーティングする単一デバイスを作成します。 このため、ソフトウェアRAIDデバイスの作成にudevデバイス名(/dev/sdbなど)は使用しないでください。 ソフトウェアRAIDの作成には、デバイスのWWIDのみを使用してください。 udevデバイス名を使用しようとすると、デバイスがビジーであることを示すエラーが発生します。

  4. デバイスを使用してソフトウェアRAID構成を作成します。

    # mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 \
      /dev/mapper/device1-WWID /dev/mapper/device2-WWID
  5. 編集するために/etc/mdadm.confを開きます。

  6. DEVICE /no/device行をコメント・アウトします。

  7. 次の例に示すように、個々のDEVICE行にソフトウェアRAID構成に含める各デバイスを指定します。

    DEVICE /dev/mapper/device1-WWID
    DEVICE /dev/mapper/device2-WWID
  8. /etc/mdadm.confを保存して閉じます。

  9. 次のコマンドを実行して、ソフトウェアRAIDデバイスをスキャンし、mdadm.confに追加します。

    # mdadm --detail --scan >> /etc/mdadm.conf

    ノート

    このコマンドはオプションです。 ただし、mdadm.confにソフトウェアRAIDデバイスを含めておくと、起動時にソフトウェアRAIDデバイスを集めやすくなります。

    すでにソフトウェアRAIDデバイスが存在する場合、このコマンドはmdadm.confに重複したエントリを作成します。 この場合、次の例に示すように別の方法を使用して新しいソフトウェアRAIDデバイスを含めてください。

    # mdadm --detail --scan
    
    ARRAY /dev/md0 metadata=1.2 name=hostname UUID=RAID1_UUID
    ARRAY /dev/md1 metadata=1.2 name=hostname UUID=RAID2_UUID
    ARRAY /dev/md2 metadata=1.2 name=hostname UUID=RAID3_UUID
    
    # cp /etc/mdadm.conf /etc/mdadm.conf.backup
    
    # echo "ARRAY /dev/md2 metadata=1.2 name=hostname UUID=RAID3_UUID" >> /etc/mdadm.conf

  10. 構成にソフトウェアRAIDデバイスが含まれていることを確認します。

    # cat /etc/mdadm.conf
    # For OVS, don't scan any devices
    #DEVICE /no/device
    DEVICE /dev/mapper/device1-WWID
    DEVICE /dev/mapper/device2-WWID
    
    ARRAY /dev/md0 metadata=1.2 name=hostname UUID=RAID_UUID
  11. ソフトウェアRAIDデバイスのステータスを確認します。

    # mdadm --detail /dev/md0
        /dev/md0:
              Version : 1.2
        Creation Time : time_stamp
           Raid Level : raid1
           Array Size : 55394112 (52.83 GiB 56.72 GB)
        Used Dev Size : 55394112 (52.83 GiB 56.72 GB)
         Raid Devices : 2
        Total Devices : 2
          Persistence : Superblock is persistent
    
          Update Time : time_stamp
                State : clean
       Active Devices : 2
      Working Devices : 2
       Failed Devices : 0
        Spare Devices : 0
    
                 Name : hostname:0
                 UUID : RAID_UUID
               Events : 17
    
          Number   Major   Minor   RaidDevice State
             0     251        0        0      active sync   /dev/dm-0
             1     251        1        1      active sync   /dev/dm-1

ソフトウェアRAIDの詳細は、次のサイトにあるOracle Linuxドキュメントを参照してください。

https://docs.oracle.com/cd/E37670_01/E41138/html/ch18s04.html

1.3.1 ソフトウェアRAIDデバイスの削除

Oracle VM Managerを使用して、ソフトウェアRAIDデバイスを削除することはできません。 Oracle VM Serverでは、これらのデバイスを次の手順で手動で削除する必要があります。

  1. rootユーザーでOracle VM Serverに接続します。

  2. ソフトウェアRAIDデバイスを停止します。

    # mdadm --stop /dev/md0
  3. デバイスからソフトウェアRAIDスーパーブロックを削除します。

    # mdadm --zero-superblock /dev/mapper/device1-WWID /dev/mapper/device2-WWID
  4. /etc/mdadm.confからソフトウェアRAIDデバイスを削除します。

  5. Oracle VM ManagerからソフトウェアRAIDデバイスを削除します。

    ノート

    ソフトウェアRAIDデバイスを削除すると、Oracle VM Managerでは、重大度が警告のイベントが表示されます。 イベント・メッセージは次のようなものです。

    Warning time_stamp storage.device.offline. Physical disk is Offline
        No Description: OVMEVT_007005D_001 Rescan storage layer on server [hostname] did
        not return physical disk [md-UUID] for storage array [Generic Local Storage Array

    この警告は無視できます。

1.4 Oracle VM Serverの診断ツール

オプションのインストール後ステップとして、すべてのOracle VM Serverで診断ツールのインストールと構成を行うことをお薦めします。 これらのツールは、システム・クラッシュ、ハング、スケジュールされていない再起動、OCFS2クラスタ・エラーなど、問題のデバッグや診断に役立ちます。 これらのツールからの出力をOracle Supportで使用することで、解決時間およびレスポンス時間を著しく短縮できます。

システム・メモリー・ダンプ、vmcoreの取得は、問題の根本原因を診断して解決する際に非常に役立ちます。 有用なvmcoreダンプを取得するには、kdumpサービス構成が必要です。 この詳細は、次の 1.4.2項「Oracle VM Server用のkdumpの手動構成」を参照してください。

さらに、システム・コンソール・メッセージをネットワークを介して別のサーバーにリダイレクトできるユーティリティである、netconsoleをインストールできます。 netconsoleのインストール方法については、Oracle Supportドキュメント「How to Configure "netconsole" for Oracle VM Server 3.0」を参照してください。

https://support.oracle.com/

診断ツールの使用の詳細は、Oracle Linuxのドキュメントに記載されています。 『Oracle Linux管理者ソリューション・ガイド』「診断ツールのサポート」という章を参照してください。

https://docs.oracle.com/cd/E37670_01/E37355/html/ol_diag.html

1.4.1 Oracle VM ServerでのOSWatcher Utilityの操作

OSWatcher (oswbb)は、Oracle VM Serverに関するパフォーマンスの問題を診断するためにオペレーティング・システムおよびネットワーク・メトリックを収集およびアーカイブするシェル・スクリプトの集まりです。 OSWatcherは、一連のバックグラウンド・プロセスとして動作し、vmstat、netstat、iostatなどの標準UNIXユーティリティを使用してデータを集めます。

デフォルトでは、OSWatcherはOracle VM Serverにインストールされ、起動時に実行できるようになっています。 次の表では、OSWatcherプログラムおよびメインの構成ファイルを説明します。

名前

説明

/usr/sbin/OSWatcher

メインのOSWatcherプログラムです。 必要に応じて、統計収集のための特定のパラメータを構成できます。 ただし、Oracle Supportによってデフォルト構成を変更するように薦められた場合のみ行ってください。

/etc/sysconfig/oswatcher

このファイルは、OSWatcherのログ・ファイルが保存されるディレクトリ、統計収集の間隔およびアーカイブされた統計を保持しておく最大期間を定義します。

重要

OSWatcherユーティリティが収集するデータに制限を指定することはできません。 このため、OSWatcherユーティリティがシステム・ディスク上で使用可能な空き容量をすべて使用してしまうことがないよう、デフォルト構成を変更する際には注意する必要があります。

OSWatcherの起動、停止およびステータスの確認を行うには、次のコマンドを使用します。

# service oswatcher {start|stop|status|restart|reload|condrestart}

OSWatcherが収集するデータの情報と出力を分析する方法およびOracle Supportへデータを送信する手順の詳細は、Oracle VM Serverのディレクトリ/usr/share/doc/oswatcher-x.x.x/にある『OSWatcherユーザーズ・ガイド』を参照してください

1.4.2 Oracle VM Server用のkdumpの手動構成

Oracle VM Serverは、安定かつフォルト・トレラントで堅牢なUEK4カーネルを使用しており、システム全体をクラッシュさせるエラーはほとんど発生しませんが、それでもシステム全体のエラーによりカーネルがクラッシュすることはあります。 問題を的確にデバッグして解決するには、カーネル・クラッシュ時のシステムの実際の状態に関する情報が不可欠です。 dom0からメモリー・ダンプを取得してファイル・システムに格納するには、kdumpサービスが使用されます。 このサービスは、ゲスト仮想マシンで使用されるシステム・メモリーはダンプしないため、メモリー・ダンプはdom0およびXenハイパーバイザ自体に固有です。 kdumpによって生成されるメモリー・ダンプ・ファイルは、vmcoreファイルと呼ばれます。

kdumpサービスが適切に有効になり実行されるようにOracle VM Serverを手動で構成するために必要な処理をここで説明します。これにより、インストール後にこのサービスを設定して有効にすることができます。 Oracle VM Serverインストーラでは、これらのステップの多くが自動的に実行されるインストール時にkdumpを有効にするオプションを提供します。 詳細は、Oracle VM Managerコマンドライン・インタフェース・ユーザー・ガイドKdump設定の項を参照してください。

前提条件パッケージの確認

デフォルトでは、kdumpサービスを有効にするために必要なパッケージはOracle VM Serverインストールに含まれていますが、構成作業を続ける前にインストールされていることを確認することをお薦めします。 これを行うには、次のコマンドを実行します。

# rpm -qa | grep kexec-tools

kexec-toolsパッケージがインストールされていない場合、手動でインストールする必要があります。

GRUB2構成の更新

Oracle VM Serverは、GRUB2を使用してブート・プロセスを処理します。 このステップでは、起動時にcrashkernelパラメータをXenカーネルに渡すようにGRUB2を構成する必要があります。 /etc/default/grubファイルを編集し、適切なcrashkernelパラメータを追加してGRUB_CMDLINE_XEN変数を変更することで、これを行うことができます。

crashkernelパラメータは、ダンプ・ファイルの生成に使用されるクラッシュ・カーネルをロードするためにメモリー内で使用される領域の量を指定し、クラッシュ・カーネル・リージョンの始まりであるオフセットもメモリー内で指定します。 クラッシュ・カーネルに指定できるRAMの最小量は512MBで、これは64MBでオフセットされます。 これは次のような構成になります。

GRUB_CMDLINE_XEN="dom0_mem=max:6144M allowsuperpage dom0_vcpus_pin \
dom0_max_vcpus=20 crashkernel=512M@64M"

この設定は大多数のシステムで十分ですが、大きなドライバを相当数使用するシステムでは、クラッシュ・カーネルにさらに多くのメモリー領域を割り当てておく必要があります。 ダンプを強制してコア・ファイルの生成に失敗する場合、クラッシュ・カーネルに割り当てられるメモリーの量を増やす必要があります。

重要

UEK4は、crashkernel=autoオプションをサポートしますが、Xenハイパーバイザはサポートしません。 クラッシュ・カーネルに使用されるRAMの予約およびオフセットの値を指定する必要があります。指定しないと、kdumpサービスを実行できません。

/etc/default/grubの変更が終了したら、起動時に使用されるシステムのGRUB2構成を再構築する必要があります。 次のコマンドを実行することで行われます。

# grub2-mkconfig -o /boot/grub2/grub.cfg

オプションでダンプ・ファイルを保存するためのローカル・ファイル・システムを準備

kdumpでは、ネットワークによってアクセス可能なファイル・システムを含む様々な場所にvmcoreファイルを格納できます。 デフォルトでは、vmcoreファイルは/var/crash/に保存されますが、これはディスク・パーティショニングや使用可能な領域によっては適切でない場合があります。 vmcoreファイルが保存されるファイル・システムには、ダンプごとにOracle VM Serverで使用可能なメモリー量に合う十分な領域が必要です。

Oracle VM Serverのインストールでは、必要な分のディスク領域しか使用しないため、新規インストール時に「スペア」パーティションが空いていることがよくあります。 このパーティションは、ローカル・リポジトリのホスティングやkdumpによって生成されたvmcoreファイルをホストするなどの別の使用のために空いたままになります。 この目的で使用することを選択した場合、まずパーティションのUUIDを正しく識別してノートにとって、使用可能なファイル・システムでフォーマットする必要があります。

次のステップは、ローカル・スペア・パーティションを準備する方法の例を示します。

  • インストール後にインストーラが「スペア」として残したパーティションを特定します。 これは通常、OVM_SYS_REPO_PARTで始まるファイル名で/dev/mapperにリストされます。 このデバイスを特定できたら、次のようにext4ファイル・システムでフォーマットできます。

    # mkfs.ext4 /dev/mapper/OVM_SYS_REPO_PART_VBd64a21cf-db4a5ad5

    このようにマッピングされたパーティションがない場合、blklspartedfdiskまたはgdiskなどのユーティリティを使用して、使用可能なディスク・デバイス上の空きパーティションを特定する必要があります。

  • ファイル・システムのUUIDを取得します。 これを行うには、blkidコマンドを実行します。

    # blkid /dev/mapper/OVM_SYS_REPO_PART_VBd64a21cf-db4a5ad5
    /dev/mapper/OVM_SYS_REPO_PART_VBd64a21cf-db4a5ad5: 
    UUID="51216552-2807-4f17-ab27-b8135f69896d" TYPE="ext4"

    後でkdumpを構成する際に使用する必要があるため、UUIDをノートにとっておきます。

kdump構成の変更

kdumpサービスの実行方法を示すシステム構成は/etc/sysconfig/kdumpに定義されていますが、特定のkdump構成変数は/etc/kdump.confに定義されています。 環境に応じて、これらのファイルのいずれかに変更を加える必要があります。 ただし、問題なくkdumpを実行するにはデフォルト構成で十分です。 次のリストは、構成を変更する可能性のあるものを示します。

  • たくさんのメモリーがあるシステムでは(たとえば、1TB以上)、パフォーマンスや安定性の理由から、クラッシュ・カーネル内のIOメモリー管理ユニットを無効にすることをお薦めします。 これは、/etc/sysconfig/kdumpを編集し、iommu=offカーネル・ブート・パラメータを KDUMP_COMMANDLINE_APPEND変数に追加することで実現できます。

    KDUMP_COMMANDLINE_APPEND="irqpoll maxcpus=1 nr_cpus=1 reset_devices cgroup_disable=memory
          mce=off selinux=0 iommu=off"
  • vmcoreファイルが保存されているパーティションを変更する場合、たとえば、インストール後にサーバー上のスペア・パーティションを使用する場合、/etc/kdump.confを編集してパーティションのファイル・システム・タイプやデバイスの場所を指定する必要があります。 前述の指示に従った場合、blkidコマンドを使用してパーティション用に取得したUUIDを指定することで行うことをお薦めします。 構成には、次のような行が示されます。

    ext4 UUID=51216552-2807-4f17-ab27-b8135f69896d
  • vmcoreファイルが保存されているデフォルト・パスは編集できますが、このパスはkdumpがvmcoreを保存するために使用するよう構成しているパーティションと関連していることに注意してください。 kdumpがvmcoreを別のファイル・システムに保存するように構成している場合は、ファイル・システムをマウントすると、vmcoreファイルはマウントされたファイル・システムで、次の指示で指定されたパスに置かれます。

    path /var/crash
  • vmcoreの取得で問題が発生している場合、またはmakedumpfileユーティリティを使用していてvmcoreファイルが著しく大きい場合、cpコマンドを使用するようにkdumpを再構成して、vmcoreをスパース・モードでコピーできます。 これを行うには、/etc/kdump.confを編集して、makedumpfileユーティリティを使用するようにcore_collectorを設定している行をコメント・アウトし、cpコマンドを有効にする行を非コメント化します。

    # core_collector makedumpfile -EXd 1 --message-level 1 --non-cyclic
    core_collector cp --sparse=always 
    extra_bins /bin/cp

    この効果は場合によって異なるため、一般的にはかわりにmakedumpfileユーティリティをお薦めします。

kdumpサービスの有効化

次のコマンドを実行することで、起動するたびにkdumpサービスを実行することができます。

# chkconfig kdump on

この時点でkdumpサービスを再起動して、kdump構成に加えられた変更を検出し、kdumpクラッシュ・カーネルが生成済で最新であるかを判断する必要があります。 カーネル・イメージを更新する必要がある場合には、kdumpは自動的に更新します。更新が必要ない場合には、クラッシュ・カーネル・イメージを再構築しようとせずに再起動します。

# service kdump restart 
Stopping kdump:                   [  OK  ]
 Detected change(s) the following file(s): 
    /etc/kdump.conf 
Rebuilding /boot/initrd-4.1.12-25.el6uek.x86_64kdump.img 

Starting kdump:                   [  OK  ]

kdumpが構成済で適切に動作していることの確認

次のコマンドを実行して、crashkernelパラメータが使用中であることを示す出力が返されることを確認することで、dom0用にロードされたカーネルが適切に構成されていることを確認できます。

# xl dmesg|grep -i crashkernel
(XEN) Command line: placeholder dom0_mem=max:6144M allowsuperpage dom0_vcpus_pin
        dom0_max_vcpus=20 crashkernel=512M@64M

次のコマンドを実行することで、kdump用に適切なメモリー量が予約されていることも確認できます。

# xl dmesg|grep -i kdump 
(XEN) Kdump: 512MB (524288kB) at 0x4000000

または、

# kexec --print-ckr-size 
536870912

次に示すようにサービス・ステータスを確認することで、kdumpサービスが実行されていることを確認できます。

# service kdump status
Kdump is operational 

/var/log/messagesまたはコンソールにエラーがない場合には、kdumpが適切に実行されているとみなすことができます。

kdumpがvmcoreを生成して適切に格納できることをテストするには、次のコマンドを発行してカーネル・パニックをトリガーすることができます。

# echo 1 > /proc/sys/kernel/sysrq
# echo c > /proc/sysrq-trigger
ノート

これらのコマンドによって、Oracle VM Server上のカーネルではパニックとクラッシュが発生します。 kdumpが適切に動作している場合、クラッシュ・カーネルは、サーバーが自動的にリブートされる前に構成された場所にコピーされたvmcoreファイルを引き継いで生成します。 kdumpがクラッシュ・カーネルのロードに失敗すると、サーバーはカーネル・パニックでハングし、再起動するためにハードのリセットが必要になります。

カーネル・パニックをトリガーしてシステムが正常に再起動した後、vmcoreファイルが適切に生成されたことを次の手順で確認します。

  • 別のパーティションを使用するようにkdumpを構成していなければ、vmcoreファイルは/var/crash/127.0.0.1-date-time/vmcoreに見つけることができます。ここで、dateおよびtimeはvmcoreが生成された日付と時間を示します。

  • 別のパーティションにvmcoreファイルを保存するようにkdumpを構成している場合には、まずそのパーティションをマウントする必要があります。 Oracle VM Serverの新規インストールによって生成されたスペア・パーティションを使用している場合、次の方法で実行できます。

    # mount /dev/mapper/OVM_SYS_REPO_PART_VBd64a21cf-db4a5ad5 /mnt

    その場合、vmcoreファイルは/mnt/var/crash/127.0.0.1-date-time/vmcoreに見つけることができます。ここで、dateおよびtimeはvmcoreが生成された日付と時間を示します。たとえば、次のようになります。

    # file /mnt/var/crash/127.0.0.1-2015-12-08-16\:12\:28/vmcore
    /mnt/var/crash/127.0.0.1-2015-12-08-16:12:28/vmcore: ELF 64-bit LSB
          core file x86-64, version 1 (SYSV), SVR4-style

    vmcoreファイルを分析用に取得した後、kdumpによって自由に使用できるようパーティションをアンマウントすることを忘れないでください。

vmcoreファイルが作成されていない場合、またはシステムが自動的に再起動することなくハングした場合、構成を調整する必要があります。 最も多い問題は、クラッシュ・カーネルを実行して操作を完了するのに十分なメモリーが割り当てられていないことです。 kdumpに関する問題の解決の出発点は、常に、GRUB2構成で指定した予約済メモリーを増やすことです。

1.5 Oracle VM Serverでの準仮想化ゲストの無効化

準仮想化(PVM)は、安全性の低いゲスト・ドメイン・タイプとみなされます。 仮想化された環境を安全かつ安全に保つには、準仮想化ゲストVMがOracle VM内で起動および実行されないようにする必要があります。

リリース3.4.5では、Xenハイパーバイザを使用して、構成ファイル設定でPVMゲストを無効にできます。 Oracle VM Serverリリース3.4.5にサーバーをアップグレードすると、PVMゲストは、既存のPVMゲストでさまざまな問題が発生するため、デフォルトでは無効になりません。 Oracleでは、このセクションで説明するように、pv-hvmゲストに切り替えてPVMゲストを無効にすることをお薦めします。

リリース3.4.6では、PVMゲストのサポートは削除されます。 PVMゲスト・サポートを削除すると、次の新しい動作制限が存在します:

  • Oracle VM Manager Webインタフェース、Oracle VM Manager Command Line InterfaceまたはOracle VM Web Services APIからPVM domanタイプの新しい仮想マシンを作成することはできません。

  • PVMドメイン・タイプの既存の仮想マシンは、Oracle VM Manager Webインタフェース、Oracle VM Manager Command Line Interface、Oracle VM Web Services APIからサポートされるタイプに変換できます。

  • サーバーの検出中、PVMドメイン・タイプの各仮想マシンに対する警告が発生します。 ヘルスタブのエラー条件サブタブに、警告タイプvm.unsupported.domainが表示されます。 エラー・イベントはユーザーが確認できません。

    ノート

    PVMドメイン・タイプの既存の仮想マシンは、以前と同様に機能し続けます。ただし、発生したエラー・イベントは、PVMドメイン・タイプの問題が解決された後でのみ発生します。

  • サポートされている型にドメイン・タイプを編集した後、イベントが確認されます。

ヒント

既存のPVMゲストがある場合は、Oracle VM ServersでPVMを無効にする前に、PVMドライバを含むHVMに変換する必要があります。 ゲスト仮想化モードの変更の詳細については、ID 2247664.1のサポート・ノートを参照してください。

Oracle VM ServerのPVMゲストの無効化
  1. SSHを使用して、Oracle VM Serverにログインします。

  2. ファイルxend-config.sxpを開き、エントリ"xend-allow-pv-guests"を探します。

    vi /etc/xen/xend-config.sxp
    # -*- sh -*-
    #
    # Xend configuration file.
    [...]
    #
    # By default allow PV guests to be created
    #(xend-allow-pv-guests 1)
  3. PVゲストを無効にするには、"#"を削除して行のコメントを外し、パラメータを"0"に設定します。 変更をファイルに保存します。

    # By default allow PV guests to be created
    (xend-allow-pv-guests 0)
  4. 新しい設定を有効にするには、Oracle VM Serverでxendサービスを停止して起動してください。

    # service xend stop
    # service xend status
    xend daemon is stopped
    
    # service xend start
    # service xend status
    xend daemon (pid 9641) is running...

    Oracle VM ServerでPVMゲストを開始しようとすると、PVMゲストが無効になったり、PVMゲストをそのゲストに移行しようとすると、失敗: " Error: PV guests disabled by xend ".

    ノート

    セキュアなVMの移行が有効な場合 - 間違ったエラー・メッセージが表示されることがあります。 既知の問題により、[Errno 9] Bad file descriptorを含む紛らわしいエラー・メッセージが表示されることがあります。

  5. 残りのOracle VM Serversごとにこれらのステップを繰り返して、仮想環境全体を保護します。

1.6 管理ドメインのメモリー・サイズの変更

Oracle VM Serverをインストールする場合、インストーラによってdom0のデフォルトのメモリー・サイズが設定されます。 使用されるアルゴリズムは、次のとおりです。

(768 + 0.0205 *物理メモリー(MB))を8に丸める

この計算を使用して、Oracle VM Serverインストールのメモリー割り当てを決定することができます。 ただし、dom0のメモリー割り当てを計算値より小さくしないでください。 Oracle VM Serverでdom0メモリー・サイズがニーズに対して適切に設定されていないと、パフォーマンスの問題が発生することがあります。

表1.1は、サイズの例を示しています。

表1.1 デフォルトのDom0メモリー・サイズ

物理メモリー

Dom0メモリー

2GB

816MB

4GB

856MB

8GB

936MB

16GB

1104MB

32GB

1440MB

64GB

2112MB

128GB

3456MB

256GB

6144MB

512GB

11520MB

1024GB

22264MB

2048GB

32768MB

ノート

32768 MBはdom0の最大許容メモリーです。


dom0メモリー割当てを変更するには、Oracle VM Serverでgrub構成を編集してdom0_memパラメータの値を調整します。 UEFIブートを使用している場合、grub構成ファイルは/boot/efi/EFI/redhat/grub.cfgにあり、使用していない場合、grub構成ファイルは/boot/grub2/grub.cfgにあります。 multiboot2 /xen.mb.efiで始まる行を編集し、必要な起動パラメータを追加します。 たとえば、メモリー割当てを1440MBに変更するには、ファイルを編集して次の行を記述します。

multiboot2 /xen.mb.efi dom0_mem=max:1440M placeholder ${xen_rm_opts}

1.7 Oracle VM Server for SPARCの構成

この項では、Oracle VM Server for SPARCのみの構成タスクについて説明します。

ノート

https://www.oracle.com/technetwork/documentation/vm-sparc-194287.htmlにあるSPARCドキュメントのOracle VM Serverにアクセスします。 参照するOracle VM Server for SPARCドキュメントのバージョンを決定するには、pkg list ldomsmanagerコマンドを実行します。

1.7.1 ZFSボリュームの作成

ローカルZFSボリュームは、Oracle VM Server for SPARC上のローカル物理ディスクとしてサポートされます。 Oracle VM Managerでは、ZFSボリュームの作成または管理用のツールは提供されていませんが、ZFSボリュームをローカル物理ディスクとして検出します。これは、ボリュームが存在するOracle VM Server上でホストされている仮想マシンによって仮想ディスクとして使用するか、仮想マシン・リソースを格納するローカル・リポジトリとして使用することができます。 この項では、SPARCベースのOracle VM Server上にZFSボリュームを手動で作成するために必要なステップと、Oracle VM Manager内でこれらを検出する方法を説明します。

ノート

SSDなどのNVMeデバイスにZFSボリュームを作成しようとしている場合には、「NVMeデバイスでのZFSボリュームの作成」を参照してください。

使用するZFSボリュームを作成するOracle VM Server用の制御ドメインで、次に示すようにzfs createコマンドを使用して新しいZFSボリュームを作成します。

# zfs create -p -V XG pool/OVS/volume

XGで表されるボリュームのサイズは、ハードウェアがサポートしているかぎり、必要な任意のサイズにすることができます。 ボリュームが属するpoolはどのZFSプールでもかまいません。 同様にvolumeの名前は好きなように選択できます。 唯一の要件は、Oracle VM Managerが検出できるようにボリュームをプール内のOVSに置くことです。 サイズが20GBのZFSボリューム2つを作成する例を次に示します。

# zfs create -V 20G rpool/OVS/DATASET0
# zfs create -V 20G rpool/OVS/DATASET1

使用するZFSボリュームを作成したら、Oracle VM Manager内のサーバーを再検出する必要があります。 この方法の詳細は、Oracle VM Managerユーザー・ガイドサーバーの検出の項を参照してください。 サーバーが再検出されると、ZFSボリュームはOracle VM Manager Webインタフェース内の物理ディスクの観点でサーバーに接続された物理ディスクとして表示されます。 このパースペクティブの詳細は、Oracle VM Managerユーザー・ガイド物理ディスクのパースペクティブの項を参照してください。

ZFSボリュームが使用されておらず、Oracle VM Managerがそれをサーバーに接続されているローカル物理ディスクとして検出できる場合、リポジトリの作成時にこのディスクを使用するように選択することでZFSボリュームにリポジトリを作成できます。 リポジトリの作成については、Oracle VM Managerユーザー・ガイド新しいリポジトリを作成の項を参照してください。

この機能を使用すると、単一のSPARCサーバーを使用して、NFSリポジトリまたは追加の物理ディスクを使用する必要なく仮想マシンを作成できます。

NVMeデバイスでのZFSボリュームの作成

NVM Express (NVMe)デバイスにZFSボリュームを作成するには、次の手順を使用します。

  1. 次の例のように、formatコマンドを使用してNVMeデバイスのLUNを決定します。

    # format
    
    ....
        5. c1t1d0 <INTEL-SSDPE2ME016T4S-8DV1-1.46TB>
              /pci@306/pci@1/pci@0/pci@4/nvme@0/disk@1
              /dev/chassis/SYS/DBP/NVME0/disk
    ...

    前述の例では、NVMeデバイスにはLUN c1t1d0があります。

    ノート

    ほとんどの場合、NVMeデバイスのパスは/SYS/DBP/NVME[0..n]です。

  2. 次のように、NVMeデバイスを使用してZFSプールを作成します。

    # zpool create pool_name c1t1d0

    ここで:

    • pool_nameは任意の有効なZFSプール名です。

    • c1t1d0は、NVMeデバイスのLUNです。

  3. 次のように、ZFSプールにZFSボリュームを作成します。

    # zfs create -p -V sizeG pool_name/OVS/volume_name

    ここで:

    • sizeは、ZFSボリュームのサイズをGBで指定する整数値です。 ZFSプールのサイズがNVMeディスクのサイズ以下であることを確認します。

    • pool_nameは、ボリュームを作成するZFSプールの名前です。

    • volume_nameは、ZFSボリュームの名前です。

    重要

    前述の例のように、ZFSプールの最初のパス要素は/OVS/である必要があります。 このパス要素によって、Oracle VM ManagerはZFSボリュームをローカル物理ディスクとして検出します。

  4. 前述のステップを繰り返し、必要に応じて追加のZFSボリュームを作成します。

  5. Oracle VM Managerから、NVMeデバイスが接続されているOracle VM Server for SPARCのインスタンスを検出または再検出します。

    検出プロセスが完了すると、Oracle VM Manager Webインタフェースは、物理ディスクの観点のOracle VM Server for SPARCに接続されている物理ディスクとして各ZFSボリュームを表示します。 Oracle VM Managerユーザー・ガイド物理ディスクのパースペクティブの項を参照してください。

1.7.2 セカンダリ・サービス・ドメインの構成

Oracle VM Agentのデフォルト構成では、プライマリ・ドメインと呼ばれる単一のサービス・ドメインが使用されます。これは、ゲスト仮想マシン(ゲスト・ドメイン)に仮想ディスクおよび仮想ネットワーク・サービスを提供します。 ゲスト・ドメインの可用性を向上するために、セカンダリ・サービス・ドメインを構成して、プライマリ・サービス・ドメインおよびセカンダリ・サービス・ドメインの両方で仮想ディスクおよび仮想ネットワーク・サービスを提供することができます。 このような構成によって、ゲスト・ドメインは仮想ディスクおよび仮想ネットワークのマルチパスを使用でき、サービス・ドメインの1つが使用できない場合でも、完全に機能し続けることができます。

プライマリ・ドメインは、常に最初のサービス・ドメインで、これはOracle VM Managerによって検出されるドメインです。 セカンダリと呼ばれる第2のサービス・ドメインは、PCIeルート・コンプレックスで構成されたルート・ドメインです。セカンダリ・ドメインはプライマリ・ドメインと同様に構成される必要があります。同じオペレーティング・システム・バージョン、同じ数のCPUおよび同じメモリー割当てを使用する必要があります。 プライマリ・ドメインとは異なり、セカンダリ・サービス・ドメインはOracle VM Managerには表示されません。 セカンダリ・ドメインはプライマリ・サービス・ドメインの構成を模倣し、Oracle VM Agentによって透過的に管理されます。 プライマリ・サービス・ドメインが使用できなくなった場合、セカンダリ・サービス・ドメインにより、ゲスト・ドメインがディスクやネットワークなどの仮想化リソースに引き続きアクセスできるようにします。 プライマリ・サービス・ドメインは、再度使用できるようになると、これらのリソースを管理する役割を再開します。

セカンダリ・サービス・ドメインを使用するようにOracle VM Agentを構成するには、大まかに説明すると次のタスクを実行する必要があります。

  1. Oracle VMインストレーションおよびアップグレード・ガイドSPARC用のOracle VM Agentのインストールの項の説明に従って、Oracle VM Agentをインストールします。

  2. セカンダリ・サービス・ドメインを作成します。

  3. セカンダリ・サービス・ドメインをインストールします。

  4. セカンダリ・サービス・ドメインを使用するようにOracle VM Agentを構成します。

ノート

セカンダリ・サービス・ドメインがすでに構成されており、プライマリ・ドメインでOracle Solaris 11.3に正常にアップグレードした場合、プライマリ・ドメインと同じOracle Solaris IPSリポジトリを使用してセカンダリ・サービス・ドメインをアップグレードできます。 セカンダリ・サービス・ドメインをアップグレードするには、次のコマンドを使用してOracle Solarisコマンドラインからアップグレードしてください。

# pkg update --accept

アップグレードが完了したら、次のコマンドを使用してシステムを再起動します。

# init 6

Oracle Solaris 11.3のインストールおよびアップグレードの詳細な手順については、https://docs.oracle.com/cd/E53394_01/を参照してください。

1.7.2.1 要件

セカンダリ・サービス・ドメインでOracle VM Agentを構成するには、Oracle VMインストレーションおよびアップグレード・ガイドSPARCハードウェアへのOracle VM Serverのインストールの項で説明されている標準のインストール要件に加えて、SPARCサーバーがこの項に示されている最小要件を満たしている必要があります。

ハードウェア

サポートされているOracle SPARC Tシリーズ・サーバー、MシリーズまたはSシリーズ・サーバーを使用してください。 『Oracle VM Server for SPARCインストレーション・ガイド』サポートされているプラットフォームに関する項を参照してください。 primaryドメインに加えてルート・ドメインを構成できるように、SPARCサーバーには少なくとも2つのPCIeバスが必要です。 詳細は、『Oracle VM Server for SPARC管理ガイド』I/Oドメイン概要に関する項を参照してください。

どちらのドメインも、少なくとも1つのPCIeバスで構成される必要があります。 各ドメインに割り当てるPCIeバスは一意である必要があります。 同じPCIeバスを2つの異なるドメインに割り当てることはできません。

デフォルトでは、新規インストールを行うと、すべてのPCIeバスがプライマリ・ドメインに割り当てられます。 新しいサービス・ドメインを追加する際に、これらのPCIeバスの一部をプライマリ・ドメインから解放してからセカンダリ・ドメインに割り当てる必要があります。

たとえば、2つのSPARC T5プロセッサを持つSPARC T5-2サーバーには4つのPCIeバスがあります。 このサーバーは、プライマリ・ドメインとセカンダリ・ドメインで構成できます。 2つのPCIeバスをプライマリ・ドメインへ、2つのPCIeバスをセカンダリ・ドメインへ割り当てることができます。

ネットワーク

プライマリ・ドメインによって使用されるネットワーク・ポートは、すべてプライマリ・ドメインに割り当てられているPCIeバスに接続されている必要があります。

同様にセカンダリ・ドメインによって使用されるネットワーク・ポートは、すべてセカンダリ・ドメインに割り当てられているPCIeバスに接続されている必要があります。

さらに、プライマリ・ドメインとセカンダリ・ドメインには同じ数のネットワーク・ポートが必要です。 プライマリ・ドメインの各ネットワーク・ポートには、セカンダリ・ドメインに対応するネットワーク・ポートを持つ必要があり、同じ物理ネットワークに接続されている必要があります。

たとえば、2つのSPARC T5プロセッサを持つSPARC T5-2サーバーには4つのPCIeバスがあります(pci_0、pci_1、pci_2およびpci_3)。 サーバーには、4つのオンボード・ネットワーク・ポートもあります。 2つのネットワーク・ポートはpci_0に接続され、他の2つのネットワーク・ポートはpci_3に接続されます。 2つのPCIeバス(pci_0およびpci_1)をプライマリ・ドメインに、2つのPCIeバス(pci_2およびpci_3)をセカンダリ・ドメインに割り当てるとことができます。 この方法により、両方のドメインに2つのポートが構成されます。 各ポートが対応するドメインのポートと同じ物理ネットワークに接続されていることを確認する必要があります。

ストレージ

プライマリ・ドメインで使用される物理ディスクまたはLUNは、すべてプライマリ・ドメインに割り当てられているPCIeバスに接続された1つまたは複数のホスト・バス・アダプタ(HBA)を介してアクセス可能である必要があります。 プライマリ・ドメインには、オペレーティング・システムを起動またはホストするために少なくとも1つのディスクが必要です。 プライマリ・ドメインは、通常、サーバーのPCIeバスの1つに接続されているオンボードSAS HBAを介して、サーバー上のすべてのローカルSASディスクまたはローカルSASディスクのサブセットに対するアクセス権を持っています。

同様に、セカンダリ・ドメインで使用される物理ディスクまたはLUNは、セカンダリ・ドメインに割り当てられているPCIeバスに接続されている1つまたは複数のHBAを介してすべてアクセス可能である必要があります。 セカンダリ・ドメインには、オペレーティング・システムの起動およびホスト用に少なくとも1つのディスクが必要です。 使用中のサーバーによって、セカンダリ・ドメインはサーバー上のローカルSASディスクにアクセスできない場合や、ローカルSASディスクのサブセットにアクセスできる場合があります。 セカンダリ・ドメインにどのローカルSASディスクにもアクセスできない場合、PCIeバスの1つにHBAカードを持ち、起動に使用できる外部ストレージ・アレイLUNにアクセスする必要があります。

警告

セカンダリ・ドメインのブート・ディスクが、複数のサーバーまたは複数のドメインで共有されているストレージ・アレイにある場合、ブート・ディスクにはセカンダリ・ドメインのみがアクセスできることを確認してください。 そうでない場合には、ディスクが別のサーバーまたはドメインに誤って使用される場合があり、そうすると、セカンダリ・ドメインのブート・ディスクが壊れる可能性があります。 ストレージ・アレイおよびストレージ・エリア・ネットワークによって、通常、ゾーニングまたはLUNマスキングを使用して実現できます。

さらに、ファイバ・チャネル(FC)・ストレージ・エリア・ネットワーク(SAN)が使用されている場合、プライマリ・ドメインとセカンダリ・ドメインで同じFCディスクにアクセスできる必要があります。 そのため、1つ以上のFC HBAが、FC SANおよびプライマリ・ドメインに割り当てられているPCIeバスに接続されている必要があります。 また、1つ以上のFC HBAが、FC SANおよびセカンダリ・ドメインに割り当てられているPCIeバスに接続されている必要があります。

ノート

プライマリ・ドメインおよびセカンダリ・ドメインは、同じSASまたはiSCSIディスクにアクセス可能である必要はありません。 プライマリ・ドメインからアクセス可能なSASまたはiSCSIディスクのみがOracle VM Managerから参照できます。 Oracle VM Managerは、セカンダリ・ドメインのみからアクセス可能なSASまたはiSCSIディスクを参照できません。 仮想マシンがSASまたはiSCSIディスクで構成されている場合、仮想マシンの対応する仮想ディスクは、プライマリ・ドメインを介して単一のアクセス・パスを持ちます。 仮想マシンがFCディスクで構成されている場合、仮想マシン内の対応する仮想ディスクは、2つのアクセス・パスを持ちます。1つはプライマリ・ドメインを介して、1つはセカンダリ・ドメインを介してです。

たとえば、2つのSPARC T5プロセッサを持つSPARC T5-2サーバーには4つのPCIeバスがあります(pci_0、pci_1、pci_2、pci_3)。 また、サーバーには、2つのオンボードSAS HBAがあり、6つの内部SASディスクにアクセスできます。 1つのSAS HBAはPCIeバスpci_0に接続され、4つの内部ディスクにアクセスします。 もう1つのSAS HBAはPCIeバスpci_4に接続され、残りの2つの内部SASディスクにアクセスします。 2つのPCIeバス(pci_0およびpci_1)をプライマリ・ドメインに、2つのPCIeバス(pci_2およびpci_3)をセカンダリ・ドメインに割り当てるとことができます。 この方法により、両方のドメインが、起動に使用できる内部SASディスクにアクセスできるようになります。 プライマリ・ドメインは、4つのSASディスクにアクセスでき、セカンダリ・ドメインは2つのSASディスクにアクセスできます。

サーバーをFC SANに接続する場合、FC HBAをプライマリ・ドメイン(たとえば、PCIeバスpci_1)に追加でき、FC HBAをセカンダリ・ドメイン(たとえば、PCIeバスpci_2)に追加できます。 この場合、両方のFC HBAを同じSANに接続してください。

1.7.2.2 制限事項

セカンダリ・サービス・ドメインを使用すると、ゲスト仮想マシンの可用性を向上する可能性はありますが、Oracle VMで使用するにはいくつかの制限事項があります。 次に、こうした制限事項の概要を示します。

  • クラスタリング: セカンダリ・サービス・ドメインで、クラスタリングは使用できません。 サーバーがセカンダリ・サービス・ドメインで構成されている場合、そのサーバーをクラスタリング・サーバー・プールに含めることはできません。

  • ネットワーク構成: ネットワーク結合/集計およびVLANは、セカンダリ・ドメインで自動的には構成されません。 Oracle VM Managerを使用してプライマリ・ドメインに結合/集計またはVLANを構成しても、対応する結合/集計またはVLANはセカンダリ・ドメインに自動的には構成されません。 仮想マシンでそのような結合/集計またはVLANを使用するには、対応する結合/集計またはVLANをセカンダリ・ドメインに手動で構成する必要があります。

  • 記憶域: セカンダリ・ドメインからのみアクセス可能なNFS、SAS、iSCSIおよびZFSボリュームは、Oracle VM Managerを使用して使用または管理することはできません。

    重要

    セカンダリ・サービス・ドメインはNFSリポジトリにアクセスできません。 このため、仮想ディスクに対する仮想マシンのI/Oは制御ドメインによってのみ提供されます。 制御ドメインが停止または再起動すると、仮想ディスクへの仮想マシンのI/Oは制御ドメインが操作を再開するまで中断されます。 制御ドメインの再起動時に可用性の継続が必要な仮想マシンには、物理​​ディスク(LUN)を使用してください。

  • 仮想マシン・ディスク・マルチパス: 仮想マシンにディスクを割り当てる際に、ファイバ・チャネル(FC)・ディスクのみがプライマリ・ドメインとセカンダリ・ドメインを介してディスク・マルチパスで構成されます。 仮想マシンに割り当てられているNFS、SAS、iSCSIまたはZFSディスクは、プライマリ・ドメインを介して単一パスで構成されます。

  • 仮想マシン・ネットワーク・ポート: 仮想マシンにネットワーク・ポートを割り当てる際に、仮想マシンには2つのネットワーク・ポートが有効に構成されます。1つはプライマリ・ドメインに接続し、1つはセカンダリ・ドメインに接続します。 プライマリ・ドメインに接続されているネットワーク・ポートは、Oracle VM Manager内から定義できるMACアドレスで構成されます。 MACアドレスは、[00:21:f6:00:00:00, 00:21:f6:0f:ff:ff]の範囲で選択する必要があります。 セカンダリ・ドメインに接続されているネットワーク・ポートは、プライマリ・ドメインに接続されているネットワーク・ポートのMACアドレスから導出されたMACアドレスで構成されます。 このMACアドレスは00:21:f6:8で始まります。

    たとえば、Oracle VM Managerで定義されたMACアドレスが00:21:f6:00:12:34の場合、このMACアドレスはプライマリ・ドメインに接続されているネットワーク・ポートで使用されます。 この場合、導出されたMACアドレスは00:21:f6:80:12:34で、セカンダリ・ドメインに接続されているネットワーク・ポートで使用する必要があります。 Oracle VM Managerでは、[00:21:f6:00:00:00, 00:21:f6:ff:ff:ff]のデフォルトの動的なMACアドレス範囲が使用されます。 セカンダリ・サービス・ドメインを使用している場合、この範囲は[00:21:f6:00:00:00, 00:21:f6:0f:ff:ff]に絞り込まれます。 Oracle VM Manager WebインタフェースでMACアドレスのデフォルト範囲を変更する方法の詳細は、Oracle VM Managerオンライン・ヘルプの仮想NICセクションを参照してください。

  • ライブ・マイグレーション: 仮想マシンを、異なるサービス・ドメイン数で構成されたサーバーにライブ・マイグレーションすることはできません。 つまり、セカンダリ・サービス・ドメインを使用したサーバーで実行されている仮想マシンからセカンダリ・サービス・ドメインを使用しないサーバーへ移行することはできません。セカンダリ・サービス・ドメインを使用しないサーバーで実行されている仮想マシンからセカンダリ・サービス・ドメインを使用したサーバーへ移行することもできません。

1.7.2.3 セカンダリ・サービス・ドメインの作成

Oracle VMコンテキスト内のセカンダリ・サービス・ドメインには、次の要件が適用されます。

  • セカンダリ・ドメインの設定を開始する前にプライマリ・ドメイン以外のドメインが存在していてはいけません。 ldm listコマンドの出力には、存在するすべてのドメインが表示されます。

  • セカンダリ・ドメインの設定を開始する前に仮想スイッチが存在していてはいけません。 ldm list-servicesコマンドの出力には、VSWセクションのすべての仮想スイッチが表示されます。

  • セカンダリ・サービス・ドメインの名前はsecondaryである必要があります。

  • セカンダリ・サービス・ドメインは、ルート・ドメインである必要があります。

  • セカンダリ・サービス・ドメインは、1つのCPUコアで構成する必要があります。

  • セカンダリ・サービス・ドメインは、8GBのメモリーで構成する必要があります。

  • セカンダリ・サービス・ドメインには、secondary-vds0という名前の仮想ディスク・サービス(VDS)が必要です。

  • セカンダリ・サービス・ドメインは、他のドメイン、特にプライマリ・ドメインからは完全に独立している必要があります。 このため、セカンダリ・ドメインは仮想ディスクや仮想ネットワーク・インタフェースを持つことはできず、物理ディスクや物理ネットワーク・インタフェースのみを使用します。

ルート・ドメインの作成の詳細は、『Oracle VM Server for SPARC管理ガイド』PCIeバスを割り当てることによるルート・ドメインの作成に関する項を参照してください。

ovs-agent-secondaryコマンドを使用して、これらの要件を満たしていることを確認し、セカンダリ・サービス・ドメインの設定および構成のプロセスを簡素化します。  1.7.2.6項「セカンダリ・ドメインの自動作成および設定」を参照してください。

次の手順では、セカンダリ・サービス・ドメインを手動で作成する方法を示します。

手動でのセカンダリ・サービス・ドメインの作成
  1. サービス・ドメインを作成し、次のコマンドを使用してコアCPUおよびメモリー要件を設定します。

    # ldm add-domain secondary
    # ldm set-core 1 secondary
    # ldm set-memory 8g secondary 
  2. セカンダリ・サービス・ドメインが使用するPCIバスを割り当てます。 バスごとにpci_2を適切なバス識別子に置き換えて次のコマンドを発行します。

    ldm add-io pci_2 secondary 
  3. 次のコマンドを使用して、セカンダリ仮想ディスク・サービスをセカンダリ・ドメインに追加します。

    ldm add-vds secondary-vds0 secondary
  4. セカンダリ・サービス・ドメインに追加したPCIバスをプライマリ・ドメインからすべて削除します。 プライマリ・ドメインの再構成を開始するには、次のコマンドを入力します。

    # ldm start-reconf primary

    セカンダリ・ドメインに追加したバスごとにpci_2を適切なバス識別子に置き換えて次のコマンドを入力し、プライマリ・ドメインから削除します。

    # ldm remove-io pci_2 primary 
  5. プライマリ・ドメインの再構成が終了したら、再起動する必要があります。

    # reboot

1.7.2.4 セカンダリ・サービス・ドメインのインストール

セカンダリ・サービス・ドメインが作成され、プライマリ・ドメインの再起動が終了したら、制御ドメインで次のコマンドを使用してセカンダリ・サービス・ドメインを起動します。

# ldm bind-domain secondary
# ldm start-domain secondary

セカンダリ・サービス・ドメインが起動されると、次のコマンドを使用してコンソール・ポートを取得することでコンソールにアクセスできます。

# ldm list secondary
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
secondary        active     -t--v-  5000    8     8G       0.0%  0.0%  0s

コンソール・ポートはCONS列に表示されます。 次のコマンドで、このポートに対するtelnet接続をオープンできます。

# telnet 0 5000
Trying 0.0.0.0...
Connected to 0.
Escape character is '^]'.
 
Connecting to console "secondary" in group "secondary" ....
Press ~? for control options ..
 
{0} ok

ここで、セカンダリ・ドメインにOracle Solaris 11オペレーティング・システムをインストールする必要があります。 これは、次のサイトにあるOracle Solaris 11.3ドキュメントに示されている手順に従ってインストールできます。

https://docs.oracle.com/cd/E53394_01/html/E54756/index.html

セカンダリ・サービス・ドメインに、Oracle VM AgentやLogical Domains Managerはインストールしないでください。 Oracle Solaris 11オペレーティング・システムのみが必要です。

セカンダリ・サービス・ドメインが自動的に起動できるように、適切に構成されていることを確認します。 特に、ドメインのOpenBoot PROM (OBP)変数を正しく設定する必要があります。 たとえば、auto-boot?パラメータはtrueに設定する必要があり、boot-deviceパラメータにはセカンダリ・ドメイン用に構成されたブート・ディスクのデバイス・パスを含める必要があります。

1.7.2.5 セカンダリ・ドメインをサポートするためのOracle VM Agentの手動構成

ovs-agent-secondaryコマンドを使用して、セカンダリ・ドメインをサポートするようにOracle VM Agentを設定するプロセスを支援することができます(1.7.2.6項、「セカンダリ・ドメインの自動作成と設定」を参照)。 Oracle VM Agentを手動で構成する手順は次のとおりです。

  1. プライマリ・ドメインで/etc/ovs-agent/shadow.confに構成ファイルを作成します。 この構成ファイルはJSONフォーマットで、セカンダリ・ドメインのサポートを有効にするには、最低限、次の内容を含める必要があります。

    {
        "enabled": true
    }
    ノート

    JSONファイルがhttp://json.org/で定義されているように適切な形式になっていることを確認します。

    • プライマリ・ドメインの各ネットワーク・リンクには、同じ物理ネットワークに接続されている対応するネットワーク・リンクがセカンダリ・ドメインに必要です。 デフォルトでは、プライマリ・ドメインのネットワーク・リンクは、同じ名前でセカンダリ・ドメインのネットワーク・リンクに関連付けられています。 プライマリ・ドメインのネットワーク・リンクを別の名前でセカンダリ・ドメインのネットワーク・リンクに関連付ける必要がある場合、ネットワーク・リンク・マッピングを定義する必要があります。 ネットワーク・マッピングを定義するには、/etc/ovs-agent/shadow.confに'nic-mapping'エントリを追加する必要があります。 通常、この種のエントリは次のようになります。

      {
          enabled": true,
          nic-mapping": [
            ["^net4$", "net2" ],
            ["^net5$", "net3" ]
          ]
      }

      前述の例で、net4はプライマリ・ドメインのネットワーク・インタフェースで、セカンダリ・ドメインのnet2という名前のネットワーク・インタフェースと同じ物理ネットワークに接続されています。 同様に、net5はプライマリ・ドメインのネットワーク・インタフェースで、セカンダリ・ドメインのnet3という名前のネットワーク・インタフェースと同じ物理ネットワークに接続されています。 プライマリ・ドメインのネットワーク・インタフェース名が必ず完全一致するように、プライマリ・ドメインのネットワーク・インタフェース名は、正規表現文字のカレット(^)とドル($)の中に入れられていることに注意してください。

    • プライマリ・ドメインからアクセス可能な各ファイバ・チャネル(FC)・ディスクは、セカンダリ・ドメインからもアクセス可能である必要があります。 デフォルトでは、プライマリ・ドメインとセカンダリ・ドメインで同じデバイス・パスを使用してFCディスクにアクセスします。 特に、同じディスク・コントローラ名を使用して各ディスクにアクセスします。 プライマリ・ドメインのディスク・コントローラをセカンダリ・ドメインのディスク・コントローラに別の名前で関連付ける必要がある場合、ディスク・コントローラ・マッピングを定義する必要があります。

      すべてのマルチパス対応のコントローラ・ポート、特にすべてのFCポートのプライマリ・ドメインおよびセカンダリ・ドメインで、Solaris I/Oマルチパスを有効にすることをお薦めします。 その場合、すべてのFCディスクは単一のディスク・コントローラ(通常c0)の下に表示され、ディスク・コントローラ・マッピングは通常必要ありません。

      ディスク・コントローラ・マッピングを定義するには、/etc/ovs-agent/shadow.confに'disk-mapping'エントリを追加します。 次に例を示します。

      {
          "enabled": true,
          "disk-mapping": [
              [ "c0t", "c1t" ]
          ]
      }

      前述の例で、c0tはプライマリ・ドメインのディスク・コントローラで、セカンダリ・ドメインのc1tという名前のディスク・コントローラと同じFCディスクに接続されています。

    • ネットワーク・インタフェースとディスク・コントローラ・マッピングの両方を必要とする/etc/ovs-agent/shadow.confファイルの例は、次のとおりです。

      {
          "enabled": true,
          "nic-mapping": [
              [ "^net4$", "net2" ],
              [ "^net5$", "net3" ]
          ],
          "disk-mapping": [
              [ "c0t", "c1t" ]
          ]
      }
  2. セカンダリ・サービス・ドメインを使用して、論理ドメイン構成をサービス・プロセッサに保存します。

    警告

    構成を保存する前に、セカンダリ・サービス・ドメインがアクティブであることを確認します。 セカンダリ・サービス・ドメインがアクティブでないときに構成が保存されると、サーバーの電源を入れ直した後、セカンダリ・サービス・ドメインは自動的に起動しません

    # ldm add-spconfig ovm-shadow
  3. 構成を完了するには、次のコマンドを実行してOracle VM Agentを再構成します。

    # ovs-agent-setup configure

    このプロセスに使用される構成値は、Oracle VMインストレーションおよびアップグレード・ガイドSPARC用のOracle VM Agentの構成の項で説明されているように、プライマリ制御ドメイン用にOracle VM Agentを最初に構成したときに構成ステップに入力した値にマップされます

Oracle VM Agent構成が完了すると、セカンダリ・ドメインが実行され、Oracle VM Agentはプライマリ・ドメインを使用できなくなった場合に使用できます。

1.7.2.6 セカンダリ・ドメインの自動作成および設定

ovs-agent-secondaryコマンドを使用して、セカンダリ・ドメインを自動的に作成および設定できます。 具体的には、コマンドによって、セカンダリ・サービス・ドメインを作成するのにサーバーが適しているかどうか、セカンダリ・サービス・ドメインに対してどのPCIeバスが使用できるかが示されます。

ノート

システムの再起動は、システムの電源を落として再起動することと同じではありません。 さらに、セカンダリ・サービス・ドメインを作成するプロシージャの各ステップが完了するまで、絶対に電源を落とさないでください。

セカンダリ・サービス・ドメインを作成するには、制御ドメインで次のコマンドを実行します。

# ovs-agent-secondary create
重要

ovs-agent-secondaryコマンドは、そのまま提供されるヘルパー・スクリプトです。 このコマンドは、一部のサーバーまたは構成では機能しない可能性があります。 コマンドが機能しない場合、 1.7.2.3項「セカンダリ・サービス・ドメインの作成」で説明しているように、セカンダリ・サービス・ドメインを手動で作成します。

サーバーに存在するPCIeバスのリスト表示

サーバーに存在するすべてのPCIeバスのリストが、セカンダリ・サービス・ドメインの作成に使用できるかどうかを示す情報とともに表示されます。 このステップのovs-agent-secondaryコマンドの出力例を次に示します。

Gathering information about the server...
The server has 2 PCIe buses.
----------------------------------------------------------------------
This is the list of PCIe buses present on the server, and whether
or not they are available for creating a secondary service domain
  Bus         Available   Reason
  ---         ---------   ------
  pci_0              no   Bus is assigned and used by the primary domain
  pci_1             yes   Bus is assigned to the primary domain but it is not used
Enter + or - to show or hide details about PCIe buses.
  +) Show devices in use
Or select one of the following options.
  0) Exit and do not create a secondary service domain
  1) Continue and select PCIe buses to create a secondary service domain
 
Choice (0-1): 1

どのPCIeバスが使用できるか、セカンダリ・サービス・ドメインにどのバスを使用するかを把握するためにこの情報を使用してください。 「+」または「-」を入力すると、PCIeバスに関する情報の表示を増やしたり、減らしたりすることができます。

PCIeバスは、次のケースでは、セカンダリ・サービスの作成に使用できません。

  • PCIeバスは、プライマリ・ドメイン以外のドメインに割り当てられています。

    セカンダリ・サービス・ドメインにこのようなPCIeバスを使用する場合、まず現在割り当てられているドメインから削除する必要があります。

  • PCIeバスは、プライマリ・ドメインに割り当てられていて、そのバスのデバイスはプライマリ・ドメインによって使用されています。

    セカンダリ・サービス・ドメインにこのようなPCIeバスを使用する場合、そのバスからのデバイスを使用しなくなるようにプライマリ・ドメインを再構成する必要があります。

警告

PCIeバスがプライマリ・ドメインに割り当てられている場合、バスからのデバイスがプライマリ・ドメインによって使用されているかどうかをツールが把握できない場合があります。 さらに、ツールは一般的なデバイス(ネットワーク・インタフェースおよびディスクなど)およびこれらのデバイスの一般的な使用方法(リンク・アグリゲーション、IP構成またはZFSプールを含む)のみを識別します。 プライマリ・ドメインに現在割り当てられているPCIeバスを使用してセカンダリ・ドメインを作成する場合、このバスがプライマリ・ドメインによってまったく使用されていないことを確認してください。

セカンダリ・サービス・ドメイン用のPCIeバスの選択

ovs-agent-secondaryコマンドによって提供される次のステップでは、セカンダリ・サービス・ドメイン用に使用されるPCIeバスを実際に選択できるようになります。 通常、このステップは次のようになります。

The following PCIe buses can be selected for creating a secondary
service domain.
  Bus        Selected   Slot                 Devices Count
  ---        --------   ----                 -------------
  pci_1            no                        
                        /SYS/MB/PCIE5        
                        /SYS/MB/PCIE6        
                        /SYS/MB/PCIE7        ETH(2)
                        /SYS/MB/PCIE8        FC(2)
                        /SYS/MB/SASHBA1      DSK(2)
                        /SYS/MB/NET2         ETH(2)
Enter + or - to show or hide details about PCIe buses.
  +) Show devices
  -) Hide PCIe slots
Or enter the name of one or more buses that you want to add to the
selection of PCIe buses to create a secondary service domain.
Or select one of the following option.
  0) Exit and do not create a secondary service domain
  1) Add all PCIe buses to the selection
  2) Remove all PCIe buses from the selection
Choice (0-2): pci_1
adding bus pci_1 to selection

すべての使用可能なPCIeバスをセカンダリ・サービス・ドメインに追加できるメニュー・オプションに加えて、PCIeバスのスペース区切りのリストをバス名で手動で指定することで特定のバスをセカンダリ・サービス・ドメインに個別に追加することもできます。

少なくとも1つのPCIeバスが選択済とマークされると、メニュー・オプションが変わり、選択したPCIeバスを使用してセカンダリ・サービス・ドメインを作成できるようになります。

The following PCIe buses can be selected for creating a secondary
service domain.
  Bus        Selected   Slot                 Devices Count
  ---        --------   ----                 -------------
  pci_1           yes                        
                        /SYS/MB/PCIE5        
                        /SYS/MB/PCIE6        
                        /SYS/MB/PCIE7        ETH(2)
                        /SYS/MB/PCIE8        FC(2)
                        /SYS/MB/SASHBA1      DSK(2)
                        /SYS/MB/NET2         ETH(2)
Enter + or - to show or hide details about PCIe buses.
  +) Show devices
  -) Hide PCIe slots
Or enter the name of one or more buses that you want to add to the
selection of PCIe buses to create a secondary service domain.
Or select one of the following option.
  0) Exit and do not create a secondary service domain
  1) Add all PCIe buses to the selection
  2) Remove all PCIe buses from the selection
  3) Create a secondary services domain with the selected buses
 
Choice (0-3): 3
セカンダリ・サービス・ドメインのPCIeバスの選択の確認

セカンダリ・サービス・ドメインの作成を続ける前に、セカンダリ・サービス・ドメイン用に選択したバスが最終確認画面に表示されます。 この確認画面は次のように表示されます。

You have selected the following buses and devices for the secondary
domain.
  Bus        Current Domain       Slot                 Devices Count
  ---        --------------       ----                 -------------
  pci_1      primary                                   
                                  /SYS/MB/PCIE5        
                                  /SYS/MB/PCIE6        
                                  /SYS/MB/PCIE7        ETH(2)
                                  /SYS/MB/PCIE8        FC(2)
                                  /SYS/MB/SASHBA1      DSK(2)
                                  /SYS/MB/NET2         ETH(2)
Verify that the selection is correct.
  0) Exit and do not create a secondary service domain
  1) The selection is correct, create a secondary domain with pci_1
  2) Go back to selection menu and change the selection
Choice (0-2): 1
セカンダリ・サービス・ドメインの作成

セカンダリ・サービス・ドメインのPCIeバスの選択が確認されると、セカンダリ・ドメインが作成され、セカンダリ・サービス・ドメインを構成するための指示が表示されます。 ツールからの出力は、次のようになります。

ldm add-domain secondary
ldm set-core 1 secondary
ldm set-memory 8G secondary
ldm add-vds secondary-vds0 secondary
ldm add-io pci_1 secondary
ldm start-reconf primary
ldm remove-io pci_1 primary
 
----------------------------------------------------------------------
 
The secondary service domain has been created. Next, you need to
install Solaris on that domain. Then you can configure the Oracle
VM Agent to run with the secondary domain.

Once the secondary service domain is up and running with Solaris,
run the following command to configure the Oracle VM Agent to run
with the secondary domain:

  # ovs-agent-secondary configure

セカンダリ・サービス・ドメインの作成を完了するために再起動が必要な場合、対応するメニューが表示されます。再起動が必要ない場合、ツールは終了し、セカンダリ・サービス・ドメインの作成が終了します。 再起動が必要な場合には、次のメニューが表示されます。

To complete the configuration of the Oracle VM Agent, the
system has to be rebooted.

Do you want to reboot the system now?
  1) Yes, reboot the system now
  2) No, I will reboot the system later
 
Choice (1-2): 1

Server Reboot

!!! WARNING !!!
You are not connected to the system console. Rebooting
the server will close this connection with the server.

!!! WARNING !!!
Are you sure that you want to continue?
  1) Yes, continue and reboot the system now
  2) No, cancel the reboot, I will reboot the system later

Choice (1-2): 1

Rebooting the system...
サービス・ドメインのインストール

新規サービス・ドメインの作成が終了したら、インストールする必要があります。  1.7.2.4項「セカンダリ・サービス・ドメインのインストール」の手順を実行します。

セカンダリ・ドメインのOracle VM Agentの構成

セカンダリ・サービス・ドメインが適切にインストールされたら、制御ドメインで次のようにovs-agent-secondaryコマンドを実行して、Oracle VM Agentで使用するように構成する必要があります。

# ovs-agent-secondary configure
セカンダリ・サービス・ドメインのインストールの確認

構成プロセスの最初のステップでは、セカンダリ・ドメインがインストールおよび実行されていることを確認する必要があります。 このステップは、次のように表示されます。

The secondary service domain exists and is active. It should be up
and running Solaris 11.3.
 
Confirm that the secondary service domain is up and running Solaris 11.3
 
  1) Yes, the secondary service domain is up and running Solaris 11.3.
  2) No, the secondary service domain is not running Solaris 11.3
 
Choice (1-2): 1
仮想スイッチの削除

構成プロセスでは、仮想スイッチが定義されているかどうかを示します。

The secondary domain can only be configured when no virtual
switches are defined. Remove any virtual switch, and restart
the configuration.

The following virtual switches are defined: 0a010000

次の例に示すように、仮想スイッチを構成する前にセカンダリ・サービス・ドメインに定義されている仮想ドメインをすべて削除する必要があります。

# ldm list-services
VCC
    NAME             LDOM             PORT-RANGE
    primary-vcc0     primary          5000-5127
VSW
    NAME             LDOM             MAC               NET-DEV   ID   DEVICE
    0a010000         primary          00:14:4f:fb:53:0e net0      0    switch@0

    LINKPROP   DEFAULT-VLAN-ID   PVID VID   MTU   MODE   INTER-VNET-LINK
               1                 1          1500         on
VDS
    NAME             LDOM         VOLUME     OPTIONS      MPGROUP    DEVICE
    primary-vds0     primary        
VDS
    NAME             LDOM         VOLUME     OPTIONS      MPGROUP    DEVICE
    secondary-vds0   secondary

# ldm remove-vsw 0a010000

仮想スイッチを削除してから、セカンダリ・サービス・ドメインの構成を再起動します。

# ovs-agent-secondary configure
The secondary service domain exists and is active. It should be up
and running Solaris 11.3.
Confirm that the secondary service domain is up and running Solaris 11.3
  1) Yes, the secondary service domain is up and running Solaris 11.3.
  2) No, the secondary service domain is not running Solaris 11.3
Choice (1-2): 1
プライマリ・ドメインとセカンダリ・ドメインとの間のネットワーク・インタフェースのマッピング

プライマリ・ドメインの各ネットワーク・リンクには、同じ物理ネットワークに接続されている対応するネットワーク・リンクがセカンダリ・ドメインに必要です。 デフォルトでは、プライマリ・ドメインのネットワーク・リンクは、同じ名前でセカンダリ・ドメインのネットワーク・リンクに関連付けられています。 プライマリ・ドメインのネットワーク・リンクを別の名前でセカンダリ・ドメインのネットワーク・リンクに関連付ける必要がある場合、ネットワーク・リンク・マッピングを定義する必要があります。 これは構成プロセスの次のステップで実現され、次のように表示されます。

Each network link in the primary domain should have a corresponding
network link in the secondary domain connected to the same physical
network. By default, a network link in the primary domain will be
associated with the network link with the same name in the secondary
domain.
 
Network links in the primary domain and corresponding link in the
secondary domain:
 
    Primary    Secondary
    -------    ---------
    net0       net0
    net1       net1
    net4       net4
    net5       net5
    net6       net6
    net7       net7
 
If a network link in the primary domain should be associated with
a network link in the secondary domain with a different name, then
you need to define a network link mapping.
 
Do you need to define a network link mapping?
 
  1) Yes, I need to map a network link in the primary domain to
     a network link in the secondary domain with a different name.
  2) No, each network link in the primary domain has a corresponding
     network link in the secondary domain with the same name.
 
Choice (1-2): 1

ここでオプション2を選択して続行できることが理想です。 ただし、ネットワーク・リンク名が正しく対応していない可能性があります。 この場合には、オプション1を選択し、マッピングを次のように再定義してください。

Enter the mapping for net0 [net0]:
Enter the mapping for net1 [net1]:
Enter the mapping for net4 [net4]: net2
Enter the mapping for net5 [net5]: net3
Enter the mapping for net6 [net6]:
Enter the mapping for net7 [net7]:
 
Network links in the primary domain and corresponding link in the
secondary domain:
 
    Primary    Secondary
    -------    ---------
    net0       net0
    net1       net1
    net4       net2
    net5       net3
    net6       net6
    net7       net7
 
Is the mapping correct?
 
  1) Yes, the mapping is correct.
  2) No, the mapping is not correct, redo the mapping.
 
Choice (1-2): 1

プライマリ・ドメインの各ネットワーク・リンクのマッピングを求めるプロンプトが表示されます。 空白行を入力すると、既存のデフォルト・マッピングが使用されます。 マッピングを変更する必要がある場合、プライマリ・ドメインにリスト表示されているネットワーク・リンクと同じ物理ネットワークに接続しているセカンダリ・ドメインのネットワーク・リンク名を指定する必要があります。

マッピングの再定義が終了したら、オプション1を選択して構成プロセスの次のステップに進んでください。

プライマリ・ドメインとセカンダリ・ドメインとの間のファイバ・チャネル・ディスク・コントローラのマッピング

プライマリ・ドメインからアクセス可能な各ファイバ・チャネル(FC)ディスクは、セカンダリ・ドメインからもアクセス可能である必要があります。 デフォルトでは、プライマリ・ドメインとセカンダリ・ドメインで同じデバイス・パスを使用してFCディスクにアクセスします。 特に、同じディスク・コントローラ名を使用して各ディスクにアクセスします。 プライマリ・ドメインのディスク・コントローラがセカンダリ・ドメインのネットワーク・リンクに異なる名前で関連付けられている必要がある場合、ディスク・コントローラ・マッピングを定義する必要があります。

すべてのマルチパス対応のコントローラ・ポート、特にすべてのFCポートのプライマリ・ドメインおよびセカンダリ・ドメインで、Solaris I/Oマルチパスを有効にすることをお薦めします。 この場合、すべてのFCディスクは単一のディスク・コントローラ(通常はc0)に表示され、ディスク・コントローラ・マッピングは通常必要ありません。

構成プロセスのこのステップでは、次の画面が表示されます。

Each Fibre Channel (FC) disk accessible from the primary domain
domain should also be accessible from the secondary domain. By
default, a FC disk will be access using the same device path in
the primary domain and in the secondary domain. In particular,
each disk will be accessed using the same disk controller name.
 
FC disk controllers in the primary domain and corresponding
controller in the secondary domain:
 
    Primary    Secondary
    -------    ---------
    c0         c0
 
If a disk controller in the primary domain should be associated with
a disk controller in the secondary domain with a different name, then
you need to define a disk controller mapping.
 
Do you need to define a disk controller mapping?
 
  1) Yes, I need to map a disk controller in the primary domain to
     a disk controller in the secondary domain with a different name.
  2) No, each disk controller in the primary domain has a corresponding
     disk controller in the secondary domain with the same name.
 
Choice (1-2): 1

オプション2を選択して続行できることが理想です。 ただし、ディスク・コントローラ名が正しく対応していない可能性があります。 この場合には、オプション1を選択し、マッピングを次のように再定義してください。

Enter the mapping for c0 [c0]: c1
 
FC disk controllers in the primary domain and corresponding
controller in the secondary domain:
 
    Primary    Secondary
    -------    ---------
    c0         c1
 
Is the mapping correct?
 
  1) Yes, the mapping is correct.
  2) No, the mapping is not correct, redo the mapping.
 
Choice (1-2): 1

プライマリ・ドメインの各FCディスク・コントローラのマッピングを求めるプロンプトが表示されます。 空白行を入力すると、既存のデフォルト・マッピングが使用されます。 マッピングを変更する必要がある場合、プライマリ・ドメインにリスト表示されているFCディスクに接続されているセカンダリ・ドメインにFCディスク・コントローラ名を指定する必要があります。

マッピングの再定義が終了したら、オプション1を選択して構成プロセスの次のステップに進んでください。

セカンダリ・サービス・ドメインのOracle VM Agent構成の保存

Oracle VM Agentでは、構成ファイルを使用して、セカンダリ・サービス・ドメイン内のリソースにアクセスして構成します。 構成プロセスのこのステップでは、プライマリ制御ドメイン内のディスクに構成ファイルが作成および保存されます。

Creating configuration file
Saving configuration ovm-shadow on the service processor
 
The secondary service domain is configured. Continuing with
the configuration of the Oracle VM Agent.

This command can not be run while the ovs-agent is online.

Do you want to disable the ovs-agent service?
  1) Yes, disable the ovs-agent service
  2) No, exit the ovs-agent-setup tool

Choice (1-2): 1
Oracle VM Agentの再構成

最後に、セカンダリ・サービス・ドメインを使用するようにOracle VM Agentが自動的に再構成され、Oracle VM Agentが使用可能になります。

Network Configuration
Network Configuration OK
Storage Configuration
Storage Configuration OK
OVS Agent Configuration
OVS Agent Configuration OK
Cluster Configuration
Cluster Configuration OK
LDoms Manager Configuration
LDoms Manager Configuration OK
Virtual I/O Services Configuration
Virtual I/O Services Configuration OK
LDoms Configuration
LDoms Configuration OK
 
Enabling Oracle VM Agent Services

このプロセスに使用される構成値は、Oracle VMインストレーションおよびアップグレード・ガイドで説明されているように、Oracle VM Agentをプライマリ制御ドメイン用に最初に構成したときに構成ステップに入力した値にマップされます。

プロセスが完了すると、Oracle VM Agentが使用可能になり、環境はプライマリ・サービス・ドメインとセカンダリ・サービス・ドメインの両方を使用するように構成されます。