機械翻訳について

第3章 Oracle VM Serverのネットワーク・インストールを実行

この章では、Oracle VM Serverをインストールするためのさまざまな自動インストール手法について説明します。

x86ハードウェアのOracle VM Serverの場合、インストールは完全なオペレーティング・システムのインストールと同等であり、提供されたISOイメージ・ファイルはブート可能なイメージであることを理解することが重要です。 SPARCハードウェアでは、ハイパーバイザはファームウェアに組み込まれており、Oracle Solaris 11.3には独自の論理ドメイン・マネージャが組み込まれています。 SPARCハードウェアにOracle VM Serverをインストールするには、Oracle VM ManagerがLogical Domains ManagerとのインタフェースをとることができるSPARC用のOracle VM Agentをインストールする必要があります。 この場合、SPARC用のOracle VM Serverをインストールするには、追加のパッケージをインストールし、Oracle VMの環境を構成する必要があります。

多数のx86 Oracle VM Serverをデプロイメントする場合、PXEブートを使用するネットワーク・インストールは、DVD-ROMなどのブート可能な物理メディアを使用するよりも優先される可能性があります。 多数のSPARC Oracle VM Serversのデプロイメントの場合、Solaris自動インストール(AI)を使用したネットワーク・インストールが優先される場合があります。

x86ハードウェア用のOracle VM Serverのインストールは、利用可能な各インストール・オプションを通じてAnacondaベースのインストール・ウィザードを案内するキックスタート構成ファイルを利用することによって、大部分が自動化できます。 SPARCハードウェア用のOracle VM Serverのインストールは、AIマニフェストを利用して自動的にシステムを構成することによって、大部分が自動化できます。

この章では、これらのインストール方法のそれぞれに必要な情報を提供します。 コマンドは、関連する場合はx86環境とSPARC環境の両方に提供されます。

3.1 PXEブートからのx86用Oracle VM Serverのインストール

複数のシステムをインストールする必要があるデプロイメントでは、同じネットワーク上に構成されたTFTPサーバーからPXEブート・イメージをロードするようにターゲット・システムを構成することで、ネットワーク・ベースのインストールを実行するのが一般的です。 このデプロイメント戦略は、通常、多数のOracle VM Serverインスタンスがx86ハードウェアに同時にインストールされる環境に適しています。

この節では、PXEブート環境を処理するために必要なすべてのサービスを提供するように設定された単一のOracle Linuxサーバーで必要とされる基本的な構成ステップについて説明します。 PXEブート・リクエストを処理するために必要なソフトウェアのアーキテクチャと選択肢には、さまざまなアプローチがあります。 ここで提供される情報は、そのような環境を設定するためのガイドラインとしてのみ意図されています。

ノート

リリース3.4.5以降、Oracle VM Serverの更新されたXenハイパーバイザは、EFIローダー、マルチ・ブート、およびマルチ・ブート2プロトコルによってロードできるxen.gzではなく、xen.mb.efiという単一のバイナリとして提供されます。

3.1.1 PXEブートの概要

PXEブートは、ネットワーク上の複数のクライアント・マシンにOracle VM Serverをインストールするメソッドです。 一般に、PXEブートを正常に実行するには、次の操作が必要です:

  1. Oracle Linuxサーバーをインストールして構成し、ネットワーク上でサービスとホスト・ファイルを提供します。

  2. DHCPサービスを構成して、クライアント・マシンをブート・ローダーのロケーションに誘導します。

  3. ブート・ローダー、カーネル、初期RAMディスク(initrd)イメージ、Xenハイパーバイザ、および構成ファイルをホストするTFTPサービスを構成します。

  4. NFSまたはHTTPサーバー上のOracle VM Server ISOイメージ・ファイルの内容をホストします。

  5. Oracle VM Serverインストール用のキックスタート構成ファイルを作成します。

    キックスタート構成ファイルを使用すると、ユーザー入力が必要なOracle VM Serverインストール・ステップを自動化できます。 PXEブートを実行する必要はありませんが、キックスタート構成ファイルを使用することをお勧めします。 詳細は、2.1.4項、「Oracle VM Serverのキックスタート・インストールの実行」を参照してください。

  6. PXEクライアントのブート・ローダーを設定します。

    1. BIOSベースのPXEクライアントの場合は、syslinuxパッケージから入手可能なpxelinux.0ブート・ローダーを使用します。 非セキュア・ブート構成のUEFIベースPXEクライアントの場合は、grubx64.efiブート・ローダーを使用します。

      ノート

      Oracle VMリリース3.4.1およびリリース3.4.2では、UEFIベースのPXEクライアントのブート・ローダーを構築する必要があります。 詳細は、A.1項、「Oracle VM Serverリリース3.4.1およびリリース3.4.2ののPXEブートの設定」を参照してください。

    2. 必要なブート・ローダー構成ファイルを作成します。

    3. ブート・ローダーと構成ファイルをTFTPサーバーにホストします。

3.1.2 DHCPサービスの構成

DHCPサービスは、PXEクライアントからのリクエストを処理して、TFTPサービスとブート・ローダー・ファイルのロケーションを指定します。

ノート
  • ネットワークにすでにDHCPサービスが構成されている場合は、その構成を編集してPXEクライアントのエントリを含める必要があります。 ネットワーク上に2つの異なるDHCPサービスを構成すると、クライアントからのリクエストが競合し、ネットワーク上の問題やPXEブートに失敗する可能性があります。

  • 次の例と参考資料は、ISC DHCPに固有のものです。

DHCPサービスを次のように構成します:

  1. dhcpパッケージをインストールします。

    # yum install dhcp
  2. /etc/dhcp/dhcpd.confを編集し、必要に応じてPXEクライアントのエントリを構成します。 「PXEクライアントのDHCPエントリの例」を参照してください。

  3. DHCPサービスを開始し、再起動後に起動するように構成します。

    # service dhcpd start
    # chkconfig dhcpd on
    ノート

    サーバーに1つ以上のネットワーク・インタフェースがある場合、DHCPサービスは/etc/dhcp/dhcpd.confファイルを使用して、リッスンするインタフェースを決定します。 /etc/dhcp/dhcpd.conf,を変更した場合は、dhcpdサービスを再起動してください。

  4. 必要に応じて、DHCPリクエストを受け入れるようにファイアウォールを構成します。

PXEクライアントのDHCPエントリの例

次に、PXEクライアント用のdhcpd.confのエントリの例を示します:

set vendorclass = option vendor-class-identifier;
option pxe-system-type code 93 = unsigned integer 16;
set pxetype = option pxe-system-type;

option domain-name "example.com";

subnet 192.0.2.0 netmask 255.255.255.0 {
  option domain-name-servers 192.0.2.1;
  option broadcast-address 192.0.2.2;
  option routers 192.0.2.1;
  default-lease-time 14400;
  max-lease-time 28800;
  if substring(vendorclass, 0, 9)="PXEClient" {
    if pxetype=00:07 or pxetype=00:09 {
          filename "tftpboot/grub2/grubx64.efi";
      } else {
          filename "tftpboot/pxelinux/pxelinux.0";
  }
  pool {
    range 192.0.2.14 192.0.2.24;
  }
  next-server 10.0.0.6;
}

host svr1 {
hardware ethernet 08:00:27:c6:a1:16;
fixed-address 192.0.2.5;
option host-name "svr1";
}

host svr2 {
hardware ethernet 08:00:27:24:0a:56;
fixed-address 192.0.2.6;
option host-name "svr2";
}
  • 上記の例では、192.0.2/24サブネット上の192.0.2.14192.0.2.24の範囲に一般的に使用可能なIPアドレスのプールを構成しています。 サブネット上のPXE起動システムは、PXEタイプにfilenameパラメータで指定されているブート・ローダーを使用します。

  • UEFIベースのクライアント用のブート・ローダーgrubx64.efiは、TFTPサーバー・ディレクトリのgrub2サブディレクトリにもあります。 非セキュア・ブート構成では、ブート・ローダーとしてgrubx64.efiを指定できます。

  • BIOSベースのクライアント用のブート・ローダーpxelinux.0は、TFTPサーバー・ディレクトリのpxelinuxサブディレクトリにあります。

  • next-serverステートメントは、クライアントがブート・ローダー・ファイルをダウンロードできるTFTPサーバーのIPアドレスを指定します。

    ノート

    同じサーバーを使用してDHCPとTFTPサービスの両方をホストする場合でも、next-serverステートメントが必要です。 それ以外の場合、ブート・ローダーの中には、クライアントが再起動、ハング、またはプロンプトを表示するための構成ファイルを取得できないものがあります。

  • 静的IPアドレス192.0.2.5192.0.2.6は、svr1とsvr2用に予約されています。これらは、MACアドレスで識別されます。

3.1.3 TFTPサービスの構成

TFTPサービスは、PXEクライアントがそれらを取得できるように、ネットワーク上のブート・ローダー・ファイル、構成ファイル、およびバイナリをホストします。

TFTPサービスを次のように構成します:

  1. tftp-serverパッケージをインストールします。

    # yum install tftp-server
  2. 編集のために/etc/xinetd.d/tftpを開き、次に:

    1. nodisableパラメータの値として設定します。

      disable = no
    2. /tftpbootをTFTPルートとして設定します。

      server_args = -s /tftpboot
  3. /etc/xinetd.d/tftpを保存して閉じます。

  4. /tftpbootディレクトリがまだ存在しない場合は作成します。

    # mkdir /tftpboot
  5. inetdサーバーを再始動してください。

    # service xinetd restart
  6. 必要に応じて、TFTPトラフィックを許可するようにファイアウォールを構成します。

3.1.4 Xen Hypervisor、インストーラ・カーネル、およびRAMディスク・イメージのコピー

TFTPサービスは、PXEクライアントがネットワーク上でそれらを取得できるように、次のファイルをホストします:

  • xen.mb.efi - Oracle VM ServerのXenハイパーバイザ

  • vmlinuz - インストーラ・カーネル

  • initrd.img - 初期RAMディスク・イメージ

次のようにファイルをTFTPサービスにコピーします:

  1. TFTPサーバー・ルートにisolinuxサブディレクトリを作成します。

    # mkdir /tftpboot/isolinux
  2. Oracle VM Server ISOイメージ・ファイルをループバック・デバイスとしてマウントします。 手順については、1.4項、「ループバックISOマウント」を参照してください。

  3. images/pxebootの内容をISOイメージ・ファイルから作成したovsサブディレクトリにコピーします。

    # cp /mnt/images/pxeboot/* /tftpboot/isolinux/

    mntを、ISOイメージ・ファイルをマウントしたマウント・ポイントのパスに置き換えます。

3.1.5 Oracle VM Server ISOファイルのコンテンツのホスティング

PXEクライアントがPXEクライアントにアクセスできるように、Oracle VM Server ISOイメージ・ファイルの内容をネットワーク経由でホストする必要があります。 必要に応じてNFSまたはHTTPサーバーを使用できます。

ノート

ISOイメージ・ファイルのみをネットワーク経由でホストすることはできません。 ISOイメージ・ファイルの内容全体を1つのディレクトリで使用できるようにする必要があります。

次のステップでは、NFSサーバーを使用した例を示します:

  1. 必要に応じてNFSサーバーをインストールします。

    # yum install nfs-utils
  2. Oracle VM Server ISOイメージ・ファイルの内容のディレクトリを作成します。

    # mkdir -p /srv/install/ovs
  3. Oracle VM Server ISOイメージ・ファイルをループバック・デバイスとしてマウントします。 手順については、1.4項、「ループバックISOマウント」を参照してください。

  4. Oracle VM Server ISOイメージ・ファイルの内容を、作成したディレクトリにコピーします。

    # cp -r /mnt/* /srv/install/ovs

    mntを、ISOイメージ・ファイルをマウントしたマウント・ポイントのパスに置き換えます。

  5. /etc/exportsを編集してNFSエクスポートを構成します。

    /srv/install *(ro,async,no_root_squash,no_subtree_check,insecure)

    セキュリティ要件に応じて、特定のホストにのみ対応するようにこのエクスポートを構成できます。

  6. NFSサービスを開始します。

    # service nfs start

    NFSサービスがすでに実行されていて、/etc/exportsファイルを変更した場合は、次のコマンドを実行して、NFSカーネル・サーバー内のエクスポート表を更新します:

    # exportfs -va

  7. ブート時に常に起動するようにNFSサービスを構成します。

    # chkconfig nfs on
    # chkconfig nfslock on
  8. 必要に応じて、クライアントがNFSサーバーにアクセスできるようにファイアウォールを構成します。

3.1.6 キックスタート構成ファイルのコピー

PXEブートを実行するには、インストール・プロセスを自動化するキックスタート構成ファイルを作成する必要があります。 キックスタート構成ファイルには、Anacondaインストール・ウィザードに必要な入力が表示されます。 キックスタート構成ファイルks.configをまだ作成していない場合は、2.1.4項、「Oracle VM Serverのキックスタート・インストールの実行」を参照してください。

PXEクライアントがネットワーク経由でキックスタート構成ファイルを使用できるようにする必要があります。 これを行うには、次のように、ファイルをOracle VM Server ISOイメージ・ファイルの内容をホストするNFSまたはHTTPサーバーにコピーします:

# cp /tmp/OVS_ks.conf /srv/install/kickstart/ks.cfg

/tmp/OVS_ks.confを、Oracle VM Serverのインストール用のキックスタート構成ファイルへのパスに置き換えてください。

3.1.7 ブート・ローダーの設定

PXEクライアントには、XenハイパーバイザとLinuxインストール・カーネルをロードするためのブート・ローダーが必要です。

BIOSベースのPXEクライアントの場合は、syslinuxパッケージから入手可能なpxelinux.0ブート・ローダーを使用します。

非セキュア・ブート構成のUEFIベースのPXEクライアントの場合、grubx64.efiブート・ローダーを使用します。これは、Oracle VM Server ISOイメージ・ファイルから入手できます。

ノート

Oracle VMリリース3.4.1およびリリース3.4.2では、UEFIベースのPXEクライアントのブート・ローダーを構築する必要があります。 次のいずれかのステップを実行する前に、まず次のステップを完了する必要があります: A.1.1.1項、「GRUB2ブート・ローダーの構築」.

3.1.7.1 BIOSベースのPXEクライアント用のPXELinuxブート・ローダーの設定

BIOSベースのPXEクライアント用にPXEブートを実行する場合は、syslinuxパッケージのpxelinux.0ブート・ローダーを使用します。

PXELinuxブート・ローダーの入手

PXELinuxブート・ローダーを入手するには、syslinuxをインストールする必要があります。

重要

PXELinuxブート・ローダー・ファイルは、DHCPサーバーのカーネル要件と一致する必要があります。 DHCPサービスを実行するOracle Linuxインストールに固有のsyslinuxパッケージをインストールする必要があります。

次のステップを実行します。

  1. syslinuxパッケージをインストールします。

    # yum install syslinux
  2. SELinuxを有効にしている場合は、syslinux-tftpbootパッケージをインストールして、ファイルのSELinuxコンテキストが正しいことを確認してください。

    # yum install syslinux-tftpboot
PXELinuxブート・ローダーのホスティング

PXELinuxブート・ローダーを取得したら、次のファイルをTFTPサーバーにコピーして、BIOSベースのPXEクライアントがネットワークを介してアクセスできるようにします:

  • pxelinux.0 - PXELinuxバイナリ

  • vesamenu.c32 - グラフィカル・メニュー・システム・モジュール

  • mboot.c32 - テキストのみのメニュー・システム・モジュール。 グラフィカル・ブート・メニューを必要としない場合は、mboot.c32vesamenu.c32なしで使用できます。

ブート・ローダーをホストするには、次の手順を実行します:

  1. TFTPルートにpxelinuxディレクトリを作成します。

  2. ブート・ローダーとメニュー・モジュールをpxelinuxディレクトリにコピーします。

    # cp /usr/share/syslinux/pxelinux.0 /tftpboot/pxelinux/
    # cp /usr/share/syslinux/vesamenu.c32 /tftpboot/pxelinux/
    # cp /usr/share/syslinux/mboot.c32 /tftpboot/pxelinux/
PXELinuxブート・ローダーの構成

BIOSベースのPXEクライアントの場合は、次のようにTFTPサーバー上に2つのブート・ローダー構成ファイルを作成する必要があります:

  1. pxelinux.cfgディレクトリを作成します。

    # mkdir /tftpboot/pxelinux/pxelinux.cfg
  2. PXEメニュー構成ファイルを作成します。

    # touch /tftpboot/pxelinux/pxelinux.cfg/pxe.conf
  3. PXE構成ファイルを作成します。

    # touch /tftpboot/pxelinux/pxelinux.cfg/default
  4. 必要に応じてpxe.confdefaultを構成します。 「ブート・ローダー構成の例」を参照してください。

ブート・ローダー構成の例

pxelinux.cfg/pxe.confの例を次に示します:

MENU TITLE  PXE Server
  NOESCAPE 1
  ALLOWOPTIONS 1
  PROMPT 0
  menu width 80
  menu rows 14
  MENU TABMSGROW 24
  MENU MARGIN 10
  menu color border               30;44      #ffffffff #00000000 std

pxelinux.cfg/defaultの例を次に示します:

DEFAULT vesamenu.c32
  TIMEOUT 800
  ONTIMEOUT BootLocal
  PROMPT 0
  MENU INCLUDE pxelinux.cfg/pxe.conf
  NOESCAPE 1
  LABEL BootLocal
          localboot 0
          TEXT HELP
          Boot to local hard disk
          ENDTEXT
  LABEL OVS
          MENU LABEL OVS
          KERNEL mboot.c32
          # Note that the APPEND statement must be a single line, the \ delimiter indicates
          # line breaks that you should remove
          APPEND /tftpboot/isolinux/xen.mb.efi --- /tftpboot/isolinux/vmlinuz ip=dhcp \
                 dom0_mem=max:128G dom0_max_vcpus=20 \
                 ksdevice=eth0 ks=nfs:192.0.2.0:/srv/install/kickstart/ks.cfg \
                 method=nfs:192.0.2.0:/srv/install/ovs --- /tftpboot/isolinux/initrd.img
          TEXT HELP
          Install OVM Server
          ENDTEXT

タイムアウト時のデフォルトの動作は、ローカル・ハード・ディスクを起動することです。 デフォルトの動作を変更してインストールを強制するには、ONTIMEOUTパラメータをOVSメニュー・アイテムを指すように変更します。 ここで覚えておくべき重要なことは、インストールが完了するとサーバーが再起動し、このオプションがBootLocalに戻されない場合、サーバーはインストール・ループに入ります。 これを処理する方法は数多くあり、それぞれ独自の環境、要件、ポリシーに依存しています。 最も一般的なアプローチは、1つの構成を使用してサーバーを起動し、インストール・プロセスのすべてに入るまで待ってから、この構成ファイルを変更して、再起動時にローカル・ブートに戻るようにします。

KERNELのロケーションは、mboot.c32モジュールを指しています。 これにより、インストーラがXen環境内で読み込まれるようにマルチ・ブート操作を実行できます。 これは2つの理由から必要です。 まず、Xenハイパーバイザがインストール前にハードウェア上で少なくとも実行可能であることを確認すると便利です。 第2に、さらに重要なことに、Xenハイパーバイザからインストーラを実行しないと、インストール後にデバイスの命名が変わる可能性があり、インストール後のデバイス構成に問題が発生します。

上記の例のAPPEND行では、次のようになります:

  • APPENDの一部のパラメータは、読みやすさのために\区切り文字を使用して別々の行に分割されています。 有効な構成では、APPEND文全体を1行に配置します。

  • Xenハイパーバイザは、まずTFTPサーバー・ルートのisolinux/xen.mb.efiからロードされます。

  • カーネルは、TFTPサーバー・ルートのパスisolinux/vmlinuz内にあります。

  • インストーラ・カーネルのIPアドレスは、DHCPを使用して取得されます。

  • インストーラのdom0に制限が適用され、インストーラが実行中に安定していることを確認します。 これは、デフォルトのパラメータ: dom0_mem=max:128Gおよびdom0_max_vcpus=20

  • ksdeviceパラメータは、使用するネットワーク・インタフェースを指定します。 eth0、特定のMACアドレス、適切なキーワードなど、ネットワーク構成を反映する値を指定する必要があります。 詳細については、適切なキックスタート・マニュアルを参照してください。

  • 最初のramdiskイメージは、TFTPサーバー・ルートのパスisolinux/initrd.img内にあります。

3.1.7.2 UEFIベースのPXEクライアント用のGRUB2ブート・ローダーの設定

UEFIベースのPXEクライアント用にPXEブートを実行する場合は、Oracle VM Server ISOイメージ・ファイルで使用可能なGRUB2ブート・ローダーを使用できます。

GRUB2ブート・ローダーのホスティング

PXEクライアントが次のようにネットワーク経由でアクセスできるように、GRUB2ブート・ローダーをTFTPサーバーにホストします:

  1. TFTPルートにgrub2ディレクトリを作成します。

  2. Oracle VM Server ISOイメージ・ファイルをループバック・デバイスとしてマウントします。 手順については、1.4項、「ループバックISOマウント」を参照してください。

  3. 非セキュア・ブート構成では、grubx64.efiブート・ローダーを/EFI/BOOT/ディレクトリからgrub2ディレクトリにコピーするだけです。

    # cp -r path/EFI/BOOT/grubx64.efi /tftpboot/grub2/

    pathを、Oracle VM Server ISOイメージ・ファイルをマウントしたディレクトリに置き換えてください。

  4. GRUB2モジュールとファイルを適切なディレクトリにコピーします。

    # cp -r path/grub2/lib/grub/x86_64-efi/*.{lst,mod} /tftpboot/grub2/x86_64-efi

    pathを、ファイル・システム上のOracle VM Server ISOイメージ・ファイルのコンテンツへのパスで置換します。

GRUB2構成の設定

GRUB2の構成を行うには、次のステップを実行します:

  1. TFTPサーバー・ルートにEFI/redhatサブディレクトリを作成します。

  2. grub.cfgをOracle VM Server ISOイメージ・ファイルからディレクトリにコピーします。

    # cp -r path/EFI/BOOT/grub.cfg /tftpboot/grub2/EFI/redhat/grub.cfg-01-cd-ef-gh-ij-kl-mn

    ここで、-cd-ef-gh-ij-kl-mnは、PXEブート・クライアント用のネットワーク・インタフェース・カード(NIC)のMACアドレスです。

    pathを、Oracle VM Server ISOイメージ・ファイルをマウントしたディレクトリに置き換えてください。

  3. 必要に応じて、TFTPサーバー上のgrub.cfgを変更します。 「例grub.cfg」を参照してください。

    Oracle VM Serverは、UEFIおよびBIOSベースのPXEクライアント用のGRUB2ブート・ローダーを提供します。 ただし、grub.cfgはGRUBではなくGRUBと互換性がなければなりません。 Oracle VM Server用のAnacondaインストール・プログラムは、GRUBとのみ互換性があります。 詳しい情報は: http://docs.oracle.com/cd/E37670_01/E41138/html/ch04s02s01.html

例grub.cfg

grub.cfgの例を次に示します:

menuentry 'Install Oracle VM Server' --class fedora --class gnu-linux --class gnu --class os {
        echo 'Loading Xen...'
        multiboot2 /tftpboot/isolinux/xen.mb.efi dom0_mem=max:128G dom0_max_vcpus=20
        echo 'Loading Linux Kernel...'
        module2 /tftpboot/isolinux/vmlinuz ip=dhcp \
        repo=nfs:192.0.2.0:/srv/install/ovs \
        ks=nfs:192.0.2.0:/srv/install/kickstart/ks.cfg \
        ksdevice=00:10:E0:29:B6:C0
        echo 'Loading initrd...'
        module2 /tftpboot/isolinux/initrd.img
}

前の例では、

  • module2ステートメントのいくつかのパラメータは、読みやすくするために\区切り文字を使用して別々の行に分割されています。 有効な構成には、すべてのパラメータと値が1行に収められています。

  • Xenハイパーバイザは、まずTFTPサーバー・ルートのisolinux/xen.mb.efiからロードされます。

  • 次のパラメータは、dom0に制限を適用します。 これらの制限は、インストール・プログラムが実行中に安定していることを保証: dom0_mem=max:128Gおよびdom0_max_vcpus=20

  • カーネルは、TFTPサーバー・ルートのパスisolinux/vmlinuz内にあります。

  • インストーラ・カーネルのIPアドレスは、DHCPを使用して取得されます。

  • repoパラメータには、Oracle VM Server ISOイメージ・ファイルの内容とその内容へのパスを格納するNFSサーバーのIPアドレスを指定します。

  • ksパラメータには、キックスタート構成ファイルをホストするNFSサーバーのIPアドレスとファイルへのパスを指定します。

  • ksdeviceパラメータは、使用するネットワーク・インタフェースを指定します。 eth0、特定のMACアドレス、適切なキーワードなど、ネットワーク構成を反映する値を指定する必要があります。

  • 最初のramdiskイメージは、TFTPサーバー・ルートのパスisolinux/initrd.img内にあります。

3.1.8 インストール・プロセスの開始

PXEクライアント用のOracle VM Serverインストールを開始するには、次の手順を実行します:

  1. PXELinuxブート・ローダーを使用するBIOSベースのPXEクライアントの場合、/tftpboot/pxelinux.cfg/default構成ファイルを更新して、タイムアウトの場合のデフォルトとしてOVSオプションを使用します。

  2. 必要に応じて、各クライアントのBIOSまたはUEFI構成でネットワーク・ブートまたはPXEブート・オプションを構成します。

  3. 各ターゲット・クライアントを再起動します。

各クライアントは、ネットワーク起動プロセス中にDHCPリクエストを行います。 DHCPサービスは、クライアントにIPアドレスを割り当て、TFTPサーバー上のブート・ローダーへのパスを提供します。 各ターゲット・クライアントは、ブート・ローダーのTFTPリクエストを作成し、デフォルト・メニューをロードします。 メニュー・オプションのタイムアウトに達すると、各クライアントはTFTPサービスからカーネルとinitrdイメージをロードし、ブート・プロセスを開始します。 クライアントはNFSまたはHTTPサーバーに接続し、インストールが開始されます。

3.2 SPARC用Oracle VM Serverの自動インストーラ(AI)の使用

SPARC用のOracle SolarisおよびOracle VM Agentは、Solaris Automated Installer (AI)を使用してネットワーク経由でSPARCサーバーに自動的にインストールできます。 これにより、複数のSPARCシステムにわたるSPARC用のOracle VM Serverの迅速なデプロイメントが可能になり、管理上のオーバーヘッドや構成エラーやインストール・エラーの可能性が減ります。 Solaris AIは、「Oracle Solaris 11.3システムのインストール」というタイトルの文書で詳しく説明されています:

http://docs.oracle.com/cd/E53394_01/html/E54756/useaipart.html

この項では、すでにSolaris AIについて十分理解しており、SolarisをSPARCシステムにデプロイするためにインストール・サーバーを設定できることを前提としています。 この節では、SPARC用のOracle VM Agentおよびその他の必要なパッケージも、SPARCシステムにインストールして構成するために実行する必要がある追加ステップについて説明します。

複数のSPARCシステムにSPARC用のOracle VM Serverを迅速にデプロイメントするためにSPARC AIを構成および構成するには、次のステップを実行する必要があります:

  • SPARCソフトウェア用のOracle VM Agentを使用してIPSリポジトリを設定します。

  • Oracle Solarisインストール・サービスを作成します。

  • SPARC用のOracle VM Agentのインストール・マニフェストを作成します。

  • SPARC用のOracle VM Serverのインストール用の構成プロファイルを作成します。

  • SPARCハードウェアにSPARC用のOracle VM Serverをインストールします。

3.2.1 Distributed Lock Manager (DLM)パッケージのインストール

DLMパッケージをまだインストールしていない場合は、Oracle VM Agentをインストールする前にダウンロードしてインストールする必要があります。 DLMパッケージは、サーバー・プール・クラスタリングをサポートする必要があります。

DLMパッケージovs-dlm-3.4.x-bxxx.p5phttps://edelivery.oracle.com/oraclevmからダウンロードします。 ソフトウェアのダウンロードの詳細については、1.2項、「インストールISOおよびパッケージの入手」を参照してください。

ノート

DLMパッケージをIPSリポジトリに追加し、そこからインストールすることができます。 3.2.2項、「IPSリポジトリの設定」を参照してください。

DLMパッケージをインストールするには、次の手順を実行します:

  1. ovs-configサービスを停止します:

    # svcadm disable -s ovs-config
  2. DLMパッケージをインストールします:

    # pkg install -g ovs-dlm-3.4.x-bxxx.p5p dlm
  3. ovs-configサービスを再起動します:

    # svcadm enable ovs-config

3.2.2 IPSリポジトリの設定

Solarisのインストールに加えて、IPSリポジトリはSPARCソフトウェア用のOracle VM Agentをインストールするように構成する必要があります。 これを行うには、インストール中に使用するSPARCソフトウェア・パッケージ用のOracle VM Agentを含むIPSリポジトリを設定する必要があります。

SPARC用のOracle VM AgentのIPSリポジトリを設定するには
  1. HTTPを介してアクセス可能なパッケージ・リポジトリをまだ作成していない場合は、リポジトリをホストする予定のシステムで次の操作を実行してリポジトリを作成する必要があります:

    # pkgrepo create /path/to/my-repository
    # svccfg -s application/pkg/server setprop pkg/inst_root=/path/to/my-repository
    # svccfg -s application/pkg/server setprop pkg/port=8888
    # svcadm refresh application/pkg/server
    # svcadm enable application/pkg/server
  2. パッケージ・リポジトリ・サーバーがオンラインであることを確認します:

    # svcs pkg/server
    STATE          STIME    FMRI
    online         timestamp svc:/application/pkg/server:default
  3. 1.2項、「インストールISOおよびパッケージの入手」で説明されているように、https://edelivery.oracle.com/oraclevmからSPARCソフトウェア用の最新のOracle VM Agentをダウンロードしてください。

  4. ソフトウェアを抽出します。たとえば、次のようにします:

    # tar xzf ovs-ldoms-3.4.x-bxxx.tar.gz
  5. ソフトウェアをパッケージ・リポジトリにコピーします。次に例を示します:

    # pkgrecv -s ovs-ldoms-3.4.x-bxxx/ovs-ldoms.p5p -d /path/to/my-repository 'ovm/*'
    # pkgrecv -s ovs-dlm-3.4.x-bxxx.p5p -d /path/to/my-repository 'ovm/*'
  6. パッケージ・リポジトリ・サーバーを再起動し、オンラインであることを確認します:

    # svcadm restart application/pkg/server
    # svcs pkg/server
  7. パッケージ・リポジトリ・サーバーがメンテナンス・ステータスにある場合は、サービスを消去します:

    # svcadm clear pkg/server
  8. リポジトリの内容が使用可能であることを確認します。次に例を示します:

    # pkgrepo list -s /path/to/my-repository
    # pkgrepo list -s http://my-repo-server:8888/

3.2.3 Oracle Solarisインストール・サービスの作成

Oracle Solaris 11.3をネットワーク経由でインストールするには、installadm create-serviceコマンドを使用してOracle Solarisインストール・サービスを作成する必要があります。

ノート

自動インストール(AI)ツール・パッケージには、installadmコマンドが用意されています。 AIツール・パッケージは、pkg install install/installadmコマンドを使用してインストールできます。

Oracle Solarisインストール・サービスを作成する手順については、「Oracle Solaris 11.3システムのインストール」を参照してください:

http://docs.oracle.com/cd/E53394_01/html/E54756/useaipart.html

手順が完了したら、installadm listコマンドを使用して、インストール・サービスが正しく設定されていることを確認できます。 このコマンドの出力は、次のようになります:

# installadm list

Service Name             Alias Of Status  Arch   Image Path
------------             -------- ------  ----   ----------

solaris11_3_12_5_0-sparc -        on      sparc  /export/auto_install/solaris11_3_12_5_0-sparc

出力例では、インストール・サービスはsolaris11_3_12_5_0-sparcです。

ソフトウェアをダウンロードするには、Oracle Solaris 11.3サポート・リポジトリ更新(SRU)インデックスID 2045311.1 (My Oracle Support)を参照してください:

https://support.oracle.com/epmos/faces/DocumentDisplay?id=2045311.1

ノート

SPARC 3.3用のOracle VM ServerがOracle Solaris 11.3に統合されました。

3.2.4 インストール・マニフェストの作成

カスタムXML AIマニフェスト・ファイルを作成して、Oracle VM Agentを自動的に構成する必要があります。 カスタムXML AIマニフェスト・ファイルの詳細については、以下の「XML AIマニフェスト・ファイルのカスタマイズ」を参照してください:

http://docs.oracle.com/cd/E53394_01/html/E54756/gmfbv.html#scrolltoc

インストール・マニフェストの作成
  1. まず、インストール・サービスのデフォルト・マニフェストをコピーします:

    # installadm list -n solaris11_3_12_5_0-sparc -m
    Service/Manifest Name            Status       Criteria
    ---------------------            ------       --------
    solaris11_3_12_5_0-sparc
        orig_default                 Default      None
    
    # installadm export -n solaris11_3_12_5_0-sparc -m orig_default -o manifest_ai_ovm.xml
  2. エクスポートされたmanifest_ai_ovm.xmlをテキスト・エディタで開き、次のようにカスタマイズします:

    • <source>項で、Solarisパブリッシャが定義されていること、およびSPARCリリース3.3以上のパッケージ用のOracle VM Serverを含むSolaris 11.3バージョン用のSolaris IPSリポジトリを指していることを確認します。 次に例を示します。

      <publisher name="solaris">
         <origin name="http://solaris-11-repository"/>
      </publisher>
    • <source>項で、SPARCソフトウェア用にOracle VM Agentで設定したIPSリポジトリへの参照をOracle VM (ovm)パブリッシャに追加します。 次に例を示します。

      <publisher name="ovm">
         <origin name="http://my-repo-server:8888"/>
      </publisher>
    • <software_data> install項で、次の行を追加して、SPARCソフトウェア用のOracle VM AgentとDLMソフトウェアをインストールします:

      <name>pkg:/ovm/ovs-agent</name>
      <name>pkg:/ovm/dlm</name>
  3. マニフェストをインストール・サービスに追加します。 さらに、このマニフェストに関連する基準を指定することもできます。 このマニフェストはSPARC sun4vシステムにのみ適用できるので、少なくともsun4v基準を使用する必要があります:

    # installadm create-manifest -n solaris11_3_12_5_0-sparc -f manifest_ai_ovm.xml -m ovm -c \
      arch="sun4v"
    
    # installadm list -m -n solaris11_3_12_5_0-sparc
    Service/Manifest Name            Status         Criteria
    ---------------------            ------         --------
    solaris11_3_12_5_0-sparc
       ovm                                          arch = sun4v
       orig_default                  Default        None

3.2.5 構成プロファイルの作成

インストール後にサーバーを自動的に構成するには、構成プロファイルを提供する必要があります。 構成プロファイルの作成の詳細については、次の「システム構成プロファイルの作成」を参照してください:

http://docs.oracle.com/cd/E53394_01/html/E54756/syscfg-2.html

構成プロファイルを作成するには、対話型構成ツールを実行し、出力をファイルに保存します。 次のコマンドは、対話形式で入力したレスポンスからprofile_ovm.xmlに有効なプロファイルを作成します:

# sysconfig create-profile -o profile_ovm.xml
重要

対話式構成ツールでは、手動でネットワークを構成するオプションを選択する必要があります。そうしないと、インストール・サービスを使用してSPARC用のOracle VM Agentを自動的に構成することはできません。

インストール中にSPARC用のOracle VM Agentを自動的に構成するには、生成されたprofile_ovm.xmlファイルの<service_bundle>項に次の項を追加します:

<service version="1" type="service" name="ovm/ovs-config">
  <instance enabled="true" name="default">
    <property_group type="application" name="config">
      <propval type="astring" name="password" value="encrypted-password"/>
      <propval type="boolean" name="autoconfig" value="true"/>
    </property_group>
  </instance>
</service>

encrypted-passwordの値を、Oracle VM Agentに使用する暗号化されたパスワードのバージョンに置き換えます。

次のコマンドを使用して、任意のシステム上で暗号化されたパスワードのバージョンを生成できます:

# python -c "import crypt, sys; print crypt.crypt(sys.argv[-1], \
      '\$6\$%s\$' % sys.argv[-2])" $(pwgen -s 16 1) password

passwordを、Oracle VM Agentに使用するパスワードで置き換えます。たとえば、次のようになります:

# python -c "import crypt, sys; print crypt.crypt(sys.argv[-1], \
     '\$6\$%s\$' % sys.argv[-2])" $(pwgen -s 16 1) s3cr3tp4ssw0rd
$6$-c$pgcCqd6Urrepi9EzdK93x5XSpyiNzup7SAcDNjVOtsqm6HFNeg385wMu1GjE.J.S.FL8J7gtl5VZnq7tOAd/N0

このコマンドの出力は、構成プロファイルに追加した項で置き換える必要があるencrypted-passwordの値です。

最後に、構成プロファイルをインストール・サービスに追加します。 さらに、このプロファイルに関連する基準を指定することもできます。 このプロファイルはSPARC sun4vシステムにのみ適用されるため、少なくともsun4v基準を使用する必要があります:

# installadm create-profile -n solaris11_3_12_5_0-sparc --file profile_ovm.xml -c arch=sun4v

# installadm list -p
Service/Profile Name      Criteria
--------------------      --------
solaris11_3_12_5_0-sparc
   profile_ovm.xml        arch = sun4v

3.2.6 インストールの実行

Solaris自動インストールを使用したサーバーのインストールの詳細については、「クライアント・システムのインストール」を参照してください:

http://docs.oracle.com/cd/E53394_01/html/E54756/client.html

インストール・サーバーでは、インストールする各サーバーのMACアドレスと、設定したインストール・サービスを関連付ける必要があります。 これは、次のコマンドを実行することによって実現されます:

# installadm create-client -n solaris11_3_12_5_0-sparc -e mac-address

mac-addressを、インストール・サービスへの接続に使用するサーバー上のネットワーク・インタフェースの実際のMACアドレスに置き換えます。

ターゲット・サーバーで、インストール・サービスの情報を提供するようにDHCPを構成している場合は、起動時に次のコマンドを発行できます:

ok boot net:dhcp - install

DHCPを構成していない場合は、ターゲット・サーバーでブート時に次のコマンドを発行します:

ok setenv network-boot-arguments host-ip=client-ip,router-ip=router-ip,\
      subnet-mask=subnet-mask,hostname=hostname,\
      file=http://install-server-ip-address:5555/cgi-bin/wanboot-cgi
ok boot net - install

client-ipをサーバーに割り当てるIPアドレスに、router-ipをルーターまたはデフォルト・ゲートウェイのIPアドレスに、subnet-maskをネットワークのサブネット・マスクに、hostnameをサーバーに使用するホスト名に置き換えます。 最後に、fileパラメータに指定したURLが、Solaris AIサーバーにアクセスするためのURLと一致することを確認します。