第3章 Oracle VM Serverのネットワーク・インストールを実行
この章では、Oracle VM Serverをインストールするためのさまざまな自動インストール手法について説明します。
x86ハードウェアのOracle VM Serverの場合、インストールは完全なオペレーティング・システムのインストールと同等であり、提供されたISOイメージ・ファイルはブート可能なイメージであることを理解することが重要です。 SPARCハードウェアでは、ハイパーバイザはファームウェアに組み込まれており、Oracle Solaris 11.3には独自の論理ドメイン・マネージャが組み込まれています。 SPARCハードウェアにOracle VM Serverをインストールするには、Oracle VM ManagerがLogical Domains ManagerとのインタフェースをとることができるSPARC用のOracle VM Agentをインストールする必要があります。 この場合、SPARC用のOracle VM Serverをインストールするには、追加のパッケージをインストールし、Oracle VMの環境を構成する必要があります。
多数のx86 Oracle VM Serverをデプロイメントする場合、PXEブートを使用するネットワーク・インストールは、DVD-ROMなどのブート可能な物理メディアを使用するよりも優先される可能性があります。 多数のSPARC Oracle VM Serversのデプロイメントの場合、Solaris自動インストール(AI)を使用したネットワーク・インストールが優先される場合があります。
x86ハードウェア用のOracle VM Serverのインストールは、利用可能な各インストール・オプションを通じてAnacondaベースのインストール・ウィザードを案内するキックスタート構成ファイルを利用することによって、大部分が自動化できます。 SPARCハードウェア用のOracle VM Serverのインストールは、AIマニフェストを利用して自動的にシステムを構成することによって、大部分が自動化できます。
この章では、これらのインストール方法のそれぞれに必要な情報を提供します。 コマンドは、関連する場合はx86環境とSPARC環境の両方に提供されます。
3.1 PXEブートからのx86用Oracle VM Serverのインストール
複数のシステムをインストールする必要があるデプロイメントでは、同じネットワーク上に構成されたTFTPサーバーからPXEブート・イメージをロードするようにターゲット・システムを構成することで、ネットワーク・ベースのインストールを実行するのが一般的です。 このデプロイメント戦略は、通常、多数のOracle VM Serverインスタンスがx86ハードウェアに同時にインストールされる環境に適しています。
この節では、PXEブート環境を処理するために必要なすべてのサービスを提供するように設定された単一のOracle Linuxサーバーで必要とされる基本的な構成ステップについて説明します。 PXEブート・リクエストを処理するために必要なソフトウェアのアーキテクチャと選択肢には、さまざまなアプローチがあります。 ここで提供される情報は、そのような環境を設定するためのガイドラインとしてのみ意図されています。
リリース3.4.5以降、Oracle VM Serverの更新されたXenハイパーバイザは、EFIローダー、マルチ・ブート、およびマルチ・ブート2プロトコルによってロードできるxen.gz
ではなく、xen.mb.efi
という単一のバイナリとして提供されます。
3.1.1 PXEブートの概要
PXEブートは、ネットワーク上の複数のクライアント・マシンにOracle VM Serverをインストールするメソッドです。 一般に、PXEブートを正常に実行するには、次の操作が必要です:
-
Oracle Linuxサーバーをインストールして構成し、ネットワーク上でサービスとホスト・ファイルを提供します。
-
DHCPサービスを構成して、クライアント・マシンをブート・ローダーのロケーションに誘導します。
-
ブート・ローダー、カーネル、初期RAMディスク(initrd)イメージ、Xenハイパーバイザ、および構成ファイルをホストするTFTPサービスを構成します。
-
NFSまたはHTTPサーバー上のOracle VM Server ISOイメージ・ファイルの内容をホストします。
-
Oracle VM Serverインストール用のキックスタート構成ファイルを作成します。
キックスタート構成ファイルを使用すると、ユーザー入力が必要なOracle VM Serverインストール・ステップを自動化できます。 PXEブートを実行する必要はありませんが、キックスタート構成ファイルを使用することをお勧めします。 詳細は、2.1.4項、「Oracle VM Serverのキックスタート・インストールの実行」を参照してください。
-
PXEクライアントのブート・ローダーを設定します。
-
BIOSベースのPXEクライアントの場合は、
syslinux
パッケージから入手可能なpxelinux.0
ブート・ローダーを使用します。 非セキュア・ブート構成のUEFIベースPXEクライアントの場合は、grubx64.efi
ブート・ローダーを使用します。ノートOracle VMリリース3.4.1およびリリース3.4.2では、UEFIベースのPXEクライアントのブート・ローダーを構築する必要があります。 詳細は、A.1項、「Oracle VM Serverリリース3.4.1およびリリース3.4.2ののPXEブートの設定」を参照してください。
-
必要なブート・ローダー構成ファイルを作成します。
-
ブート・ローダーと構成ファイルをTFTPサーバーにホストします。
-
3.1.2 DHCPサービスの構成
DHCPサービスは、PXEクライアントからのリクエストを処理して、TFTPサービスとブート・ローダー・ファイルのロケーションを指定します。
-
ネットワークにすでにDHCPサービスが構成されている場合は、その構成を編集してPXEクライアントのエントリを含める必要があります。 ネットワーク上に2つの異なるDHCPサービスを構成すると、クライアントからのリクエストが競合し、ネットワーク上の問題やPXEブートに失敗する可能性があります。
-
次の例と参考資料は、ISC DHCPに固有のものです。
DHCPサービスを次のように構成します:
-
dhcp
パッケージをインストールします。# yum install dhcp
-
/etc/dhcp/dhcpd.conf
を編集し、必要に応じてPXEクライアントのエントリを構成します。 「PXEクライアントのDHCPエントリの例」を参照してください。 -
DHCPサービスを開始し、再起動後に起動するように構成します。
# service dhcpd start # chkconfig dhcpd on
ノートサーバーに1つ以上のネットワーク・インタフェースがある場合、DHCPサービスは
/etc/dhcp/dhcpd.conf
ファイルを使用して、リッスンするインタフェースを決定します。 /etc/dhcp/dhcpd.conf,を変更した場合は、dhcpdサービスを再起動してください。 -
必要に応じて、DHCPリクエストを受け入れるようにファイアウォールを構成します。
PXEクライアントのDHCPエントリの例
次に、PXEクライアント用のdhcpd.conf
のエントリの例を示します:
set vendorclass = option vendor-class-identifier; option pxe-system-type code 93 = unsigned integer 16; set pxetype = option pxe-system-type; option domain-name "example.com"; subnet 192.0.2.0 netmask 255.255.255.0 { option domain-name-servers 192.0.2.1; option broadcast-address 192.0.2.2; option routers 192.0.2.1; default-lease-time 14400; max-lease-time 28800; if substring(vendorclass, 0, 9)="PXEClient" { if pxetype=00:07 or pxetype=00:09 { filename "tftpboot/grub2/grubx64.efi"; } else { filename "tftpboot/pxelinux/pxelinux.0"; } pool { range 192.0.2.14 192.0.2.24; } next-server 10.0.0.6; } host svr1 { hardware ethernet 08:00:27:c6:a1:16; fixed-address 192.0.2.5; option host-name "svr1"; } host svr2 { hardware ethernet 08:00:27:24:0a:56; fixed-address 192.0.2.6; option host-name "svr2"; }
-
上記の例では、
192.0.2/24
サブネット上の192.0.2.14
〜192.0.2.24
の範囲に一般的に使用可能なIPアドレスのプールを構成しています。 サブネット上のPXE起動システムは、PXEタイプにfilename
パラメータで指定されているブート・ローダーを使用します。 -
UEFIベースのクライアント用のブート・ローダー
grubx64.efi
は、TFTPサーバー・ディレクトリのgrub2
サブディレクトリにもあります。 非セキュア・ブート構成では、ブート・ローダーとしてgrubx64.efi
を指定できます。 -
BIOSベースのクライアント用のブート・ローダー
pxelinux.0
は、TFTPサーバー・ディレクトリのpxelinux
サブディレクトリにあります。 -
next-server
ステートメントは、クライアントがブート・ローダー・ファイルをダウンロードできるTFTPサーバーのIPアドレスを指定します。ノート同じサーバーを使用してDHCPとTFTPサービスの両方をホストする場合でも、
next-server
ステートメントが必要です。 それ以外の場合、ブート・ローダーの中には、クライアントが再起動、ハング、またはプロンプトを表示するための構成ファイルを取得できないものがあります。 -
静的IPアドレス
192.0.2.5
と192.0.2.6
は、svr1とsvr2用に予約されています。これらは、MACアドレスで識別されます。
3.1.3 TFTPサービスの構成
TFTPサービスは、PXEクライアントがそれらを取得できるように、ネットワーク上のブート・ローダー・ファイル、構成ファイル、およびバイナリをホストします。
TFTPサービスを次のように構成します:
-
tftp-server
パッケージをインストールします。# yum install tftp-server
-
編集のために
/etc/xinetd.d/tftp
を開き、次に:-
no
をdisable
パラメータの値として設定します。disable = no
-
/tftpboot
をTFTPルートとして設定します。server_args = -s /tftpboot
-
-
/etc/xinetd.d/tftp
を保存して閉じます。 -
/tftpboot
ディレクトリがまだ存在しない場合は作成します。# mkdir /tftpboot
-
inetd
サーバーを再始動してください。# service xinetd restart
-
必要に応じて、TFTPトラフィックを許可するようにファイアウォールを構成します。
3.1.4 Xen Hypervisor、インストーラ・カーネル、およびRAMディスク・イメージのコピー
TFTPサービスは、PXEクライアントがネットワーク上でそれらを取得できるように、次のファイルをホストします:
-
xen.mb.efi
- Oracle VM ServerのXenハイパーバイザ -
vmlinuz
- インストーラ・カーネル -
initrd.img
- 初期RAMディスク・イメージ
次のようにファイルをTFTPサービスにコピーします:
-
TFTPサーバー・ルートに
isolinux
サブディレクトリを作成します。# mkdir /tftpboot/isolinux
-
Oracle VM Server ISOイメージ・ファイルをループバック・デバイスとしてマウントします。 手順については、1.4項、「ループバックISOマウント」を参照してください。
-
images/pxeboot
の内容をISOイメージ・ファイルから作成したovs
サブディレクトリにコピーします。# cp /
mnt
/images/pxeboot/* /tftpboot/isolinux/mnt
を、ISOイメージ・ファイルをマウントしたマウント・ポイントのパスに置き換えます。
3.1.5 Oracle VM Server ISOファイルのコンテンツのホスティング
PXEクライアントがPXEクライアントにアクセスできるように、Oracle VM Server ISOイメージ・ファイルの内容をネットワーク経由でホストする必要があります。 必要に応じてNFSまたはHTTPサーバーを使用できます。
ISOイメージ・ファイルのみをネットワーク経由でホストすることはできません。 ISOイメージ・ファイルの内容全体を1つのディレクトリで使用できるようにする必要があります。
次のステップでは、NFSサーバーを使用した例を示します:
-
必要に応じてNFSサーバーをインストールします。
# yum install nfs-utils
-
Oracle VM Server ISOイメージ・ファイルの内容のディレクトリを作成します。
# mkdir -p /srv/install/ovs
-
Oracle VM Server ISOイメージ・ファイルをループバック・デバイスとしてマウントします。 手順については、1.4項、「ループバックISOマウント」を参照してください。
-
Oracle VM Server ISOイメージ・ファイルの内容を、作成したディレクトリにコピーします。
# cp -r /
mnt
/* /srv/install/ovsmnt
を、ISOイメージ・ファイルをマウントしたマウント・ポイントのパスに置き換えます。 -
/etc/exports
を編集してNFSエクスポートを構成します。/srv/install *(ro,async,no_root_squash,no_subtree_check,insecure)
セキュリティ要件に応じて、特定のホストにのみ対応するようにこのエクスポートを構成できます。
-
NFSサービスを開始します。
# service nfs start
NFSサービスがすでに実行されていて、
/etc/exports
ファイルを変更した場合は、次のコマンドを実行して、NFSカーネル・サーバー内のエクスポート表を更新します:# exportfs -va
-
ブート時に常に起動するようにNFSサービスを構成します。
# chkconfig nfs on # chkconfig nfslock on
-
必要に応じて、クライアントがNFSサーバーにアクセスできるようにファイアウォールを構成します。
3.1.6 キックスタート構成ファイルのコピー
PXEブートを実行するには、インストール・プロセスを自動化するキックスタート構成ファイルを作成する必要があります。 キックスタート構成ファイルには、Anacondaインストール・ウィザードに必要な入力が表示されます。 キックスタート構成ファイルks.config
をまだ作成していない場合は、2.1.4項、「Oracle VM Serverのキックスタート・インストールの実行」を参照してください。
PXEクライアントがネットワーク経由でキックスタート構成ファイルを使用できるようにする必要があります。 これを行うには、次のように、ファイルをOracle VM Server ISOイメージ・ファイルの内容をホストするNFSまたはHTTPサーバーにコピーします:
# cp /tmp/OVS_ks.conf
/srv/install/kickstart/ks.cfg
/tmp/OVS_ks.conf
を、Oracle VM Serverのインストール用のキックスタート構成ファイルへのパスに置き換えてください。
3.1.7 ブート・ローダーの設定
PXEクライアントには、XenハイパーバイザとLinuxインストール・カーネルをロードするためのブート・ローダーが必要です。
BIOSベースのPXEクライアントの場合は、syslinux
パッケージから入手可能なpxelinux.0
ブート・ローダーを使用します。
非セキュア・ブート構成のUEFIベースのPXEクライアントの場合、grubx64.efi
ブート・ローダーを使用します。これは、Oracle VM Server ISOイメージ・ファイルから入手できます。
Oracle VMリリース3.4.1およびリリース3.4.2では、UEFIベースのPXEクライアントのブート・ローダーを構築する必要があります。 次のいずれかのステップを実行する前に、まず次のステップを完了する必要があります: A.1.1.1項、「GRUB2ブート・ローダーの構築」.
3.1.7.1 BIOSベースのPXEクライアント用のPXELinuxブート・ローダーの設定
BIOSベースのPXEクライアント用にPXEブートを実行する場合は、syslinux
パッケージのpxelinux.0
ブート・ローダーを使用します。
PXELinuxブート・ローダーの入手
PXELinuxブート・ローダーを入手するには、syslinuxをインストールする必要があります。
PXELinuxブート・ローダー・ファイルは、DHCPサーバーのカーネル要件と一致する必要があります。 DHCPサービスを実行するOracle Linuxインストールに固有のsyslinuxパッケージをインストールする必要があります。
次のステップを実行します。
-
syslinux
パッケージをインストールします。# yum install syslinux
-
SELinuxを有効にしている場合は、
syslinux-tftpboot
パッケージをインストールして、ファイルのSELinuxコンテキストが正しいことを確認してください。# yum install syslinux-tftpboot
PXELinuxブート・ローダーのホスティング
PXELinuxブート・ローダーを取得したら、次のファイルをTFTPサーバーにコピーして、BIOSベースのPXEクライアントがネットワークを介してアクセスできるようにします:
-
pxelinux.0
- PXELinuxバイナリ -
vesamenu.c32
- グラフィカル・メニュー・システム・モジュール -
mboot.c32
- テキストのみのメニュー・システム・モジュール。 グラフィカル・ブート・メニューを必要としない場合は、mboot.c32
をvesamenu.c32
なしで使用できます。
ブート・ローダーをホストするには、次の手順を実行します:
-
TFTPルートに
pxelinux
ディレクトリを作成します。 -
ブート・ローダーとメニュー・モジュールを
pxelinux
ディレクトリにコピーします。# cp /usr/share/syslinux/pxelinux.0 /tftpboot/pxelinux/ # cp /usr/share/syslinux/vesamenu.c32 /tftpboot/pxelinux/ # cp /usr/share/syslinux/mboot.c32 /tftpboot/pxelinux/
PXELinuxブート・ローダーの構成
BIOSベースのPXEクライアントの場合は、次のようにTFTPサーバー上に2つのブート・ローダー構成ファイルを作成する必要があります:
-
pxelinux.cfg
ディレクトリを作成します。# mkdir /tftpboot/pxelinux/pxelinux.cfg
-
PXEメニュー構成ファイルを作成します。
# touch /tftpboot/pxelinux/pxelinux.cfg/pxe.conf
-
PXE構成ファイルを作成します。
# touch /tftpboot/pxelinux/pxelinux.cfg/default
-
必要に応じて
pxe.conf
とdefault
を構成します。 「ブート・ローダー構成の例」を参照してください。
ブート・ローダー構成の例
pxelinux.cfg/pxe.conf
の例を次に示します:
MENU TITLE PXE Server NOESCAPE 1 ALLOWOPTIONS 1 PROMPT 0 menu width 80 menu rows 14 MENU TABMSGROW 24 MENU MARGIN 10 menu color border 30;44 #ffffffff #00000000 std
pxelinux.cfg/default
の例を次に示します:
DEFAULT vesamenu.c32 TIMEOUT 800 ONTIMEOUT BootLocal PROMPT 0 MENU INCLUDE pxelinux.cfg/pxe.conf NOESCAPE 1 LABEL BootLocal localboot 0 TEXT HELP Boot to local hard disk ENDTEXT LABEL OVS MENU LABEL OVS KERNEL mboot.c32 # Note that the APPEND statement must be a single line, the \ delimiter indicates # line breaks that you should remove APPEND /tftpboot/isolinux/xen.mb.efi --- /tftpboot/isolinux/vmlinuz ip=dhcp \ dom0_mem=max:128G dom0_max_vcpus=20 \ ksdevice=eth0 ks=nfs:192.0.2.0
:/srv/install/kickstart/ks.cfg \ method=nfs:192.0.2.0
:/srv/install/ovs --- /tftpboot/isolinux/initrd.img TEXT HELP Install OVM Server ENDTEXT
タイムアウト時のデフォルトの動作は、ローカル・ハード・ディスクを起動することです。 デフォルトの動作を変更してインストールを強制するには、ONTIMEOUT
パラメータをOVS
メニュー・アイテムを指すように変更します。 ここで覚えておくべき重要なことは、インストールが完了するとサーバーが再起動し、このオプションがBootLocal
に戻されない場合、サーバーはインストール・ループに入ります。 これを処理する方法は数多くあり、それぞれ独自の環境、要件、ポリシーに依存しています。 最も一般的なアプローチは、1つの構成を使用してサーバーを起動し、インストール・プロセスのすべてに入るまで待ってから、この構成ファイルを変更して、再起動時にローカル・ブートに戻るようにします。
KERNEL
のロケーションは、mboot.c32
モジュールを指しています。 これにより、インストーラがXen環境内で読み込まれるようにマルチ・ブート操作を実行できます。 これは2つの理由から必要です。 まず、Xenハイパーバイザがインストール前にハードウェア上で少なくとも実行可能であることを確認すると便利です。 第2に、さらに重要なことに、Xenハイパーバイザからインストーラを実行しないと、インストール後にデバイスの命名が変わる可能性があり、インストール後のデバイス構成に問題が発生します。
上記の例のAPPEND
行では、次のようになります:
-
APPEND
の一部のパラメータは、読みやすさのために\
区切り文字を使用して別々の行に分割されています。 有効な構成では、APPEND
文全体を1行に配置します。 -
Xenハイパーバイザは、まずTFTPサーバー・ルートの
isolinux/xen.mb.efi
からロードされます。 -
カーネルは、TFTPサーバー・ルートのパス
isolinux/vmlinuz
内にあります。 -
インストーラ・カーネルのIPアドレスは、DHCPを使用して取得されます。
-
インストーラのdom0に制限が適用され、インストーラが実行中に安定していることを確認します。 これは、デフォルトのパラメータ:
dom0_mem=max:128G
およびdom0_max_vcpus=20
。 -
ksdevice
パラメータは、使用するネットワーク・インタフェースを指定します。eth0
、特定のMACアドレス、適切なキーワードなど、ネットワーク構成を反映する値を指定する必要があります。 詳細については、適切なキックスタート・マニュアルを参照してください。 -
最初のramdiskイメージは、TFTPサーバー・ルートのパス
isolinux/initrd.img
内にあります。
3.1.7.2 UEFIベースのPXEクライアント用のGRUB2ブート・ローダーの設定
UEFIベースのPXEクライアント用にPXEブートを実行する場合は、Oracle VM Server ISOイメージ・ファイルで使用可能なGRUB2ブート・ローダーを使用できます。
GRUB2ブート・ローダーのホスティング
PXEクライアントが次のようにネットワーク経由でアクセスできるように、GRUB2ブート・ローダーをTFTPサーバーにホストします:
-
TFTPルートに
grub2
ディレクトリを作成します。 -
Oracle VM Server ISOイメージ・ファイルをループバック・デバイスとしてマウントします。 手順については、1.4項、「ループバックISOマウント」を参照してください。
-
非セキュア・ブート構成では、
grubx64.efi
ブート・ローダーを/EFI/BOOT/
ディレクトリからgrub2
ディレクトリにコピーするだけです。# cp -r
path
/EFI/BOOT/grubx64.efi /tftpboot/grub2/path
を、Oracle VM Server ISOイメージ・ファイルをマウントしたディレクトリに置き換えてください。 -
GRUB2モジュールとファイルを適切なディレクトリにコピーします。
# cp -r
path
/grub2/lib/grub/x86_64-efi/*.{lst,mod} /tftpboot/grub2/x86_64-efipath
を、ファイル・システム上のOracle VM Server ISOイメージ・ファイルのコンテンツへのパスで置換します。
GRUB2構成の設定
GRUB2の構成を行うには、次のステップを実行します:
-
TFTPサーバー・ルートに
EFI/redhat
サブディレクトリを作成します。 -
grub.cfg
をOracle VM Server ISOイメージ・ファイルからディレクトリにコピーします。# cp -r
path
/EFI/BOOT/grub.cfg /tftpboot/grub2/EFI/redhat/grub.cfg-01-cd-ef-gh-ij-kl-mn
ここで、
-cd-ef-gh-ij-kl-mn
は、PXEブート・クライアント用のネットワーク・インタフェース・カード(NIC)のMACアドレスです。path
を、Oracle VM Server ISOイメージ・ファイルをマウントしたディレクトリに置き換えてください。 -
必要に応じて、TFTPサーバー上の
grub.cfg
を変更します。 「例grub.cfg」を参照してください。Oracle VM Serverは、UEFIおよびBIOSベースのPXEクライアント用のGRUB2ブート・ローダーを提供します。 ただし、
grub.cfg
はGRUBではなくGRUBと互換性がなければなりません。 Oracle VM Server用のAnacondaインストール・プログラムは、GRUBとのみ互換性があります。 詳しい情報は: http://docs.oracle.com/cd/E37670_01/E41138/html/ch04s02s01.html
例grub.cfg
grub.cfg
の例を次に示します:
menuentry 'Install Oracle VM Server' --class fedora --class gnu-linux --class gnu --class os { echo 'Loading Xen...' multiboot2 /tftpboot/isolinux/xen.mb.efi dom0_mem=max:128G dom0_max_vcpus=20 echo 'Loading Linux Kernel...' module2 /tftpboot/isolinux/vmlinuz ip=dhcp \ repo=nfs:192.0.2.0
:/srv/install/ovs \ ks=nfs:192.0.2.0
:/srv/install/kickstart/ks.cfg \ ksdevice=00:10:E0:29:B6:C0
echo 'Loading initrd...' module2 /tftpboot/isolinux/initrd.img }
前の例では、
-
module2
ステートメントのいくつかのパラメータは、読みやすくするために\
区切り文字を使用して別々の行に分割されています。 有効な構成には、すべてのパラメータと値が1行に収められています。 -
Xenハイパーバイザは、まずTFTPサーバー・ルートの
isolinux/xen.mb.efi
からロードされます。 -
次のパラメータは、dom0に制限を適用します。 これらの制限は、インストール・プログラムが実行中に安定していることを保証:
dom0_mem=max:128G
およびdom0_max_vcpus=20
。 -
カーネルは、TFTPサーバー・ルートのパス
isolinux/vmlinuz
内にあります。 -
インストーラ・カーネルのIPアドレスは、DHCPを使用して取得されます。
-
repo
パラメータには、Oracle VM Server ISOイメージ・ファイルの内容とその内容へのパスを格納するNFSサーバーのIPアドレスを指定します。 -
ks
パラメータには、キックスタート構成ファイルをホストするNFSサーバーのIPアドレスとファイルへのパスを指定します。 -
ksdevice
パラメータは、使用するネットワーク・インタフェースを指定します。eth0
、特定のMACアドレス、適切なキーワードなど、ネットワーク構成を反映する値を指定する必要があります。 -
最初のramdiskイメージは、TFTPサーバー・ルートのパス
isolinux/initrd.img
内にあります。
3.1.8 インストール・プロセスの開始
PXEクライアント用のOracle VM Serverインストールを開始するには、次の手順を実行します:
-
PXELinuxブート・ローダーを使用するBIOSベースのPXEクライアントの場合、
/tftpboot/pxelinux.cfg/default
構成ファイルを更新して、タイムアウトの場合のデフォルトとしてOVS
オプションを使用します。 -
必要に応じて、各クライアントのBIOSまたはUEFI構成でネットワーク・ブートまたはPXEブート・オプションを構成します。
-
各ターゲット・クライアントを再起動します。
各クライアントは、ネットワーク起動プロセス中にDHCPリクエストを行います。 DHCPサービスは、クライアントにIPアドレスを割り当て、TFTPサーバー上のブート・ローダーへのパスを提供します。 各ターゲット・クライアントは、ブート・ローダーのTFTPリクエストを作成し、デフォルト・メニューをロードします。 メニュー・オプションのタイムアウトに達すると、各クライアントはTFTPサービスからカーネルとinitrdイメージをロードし、ブート・プロセスを開始します。 クライアントはNFSまたはHTTPサーバーに接続し、インストールが開始されます。
3.2 SPARC用Oracle VM Serverの自動インストーラ(AI)の使用
SPARC用のOracle SolarisおよびOracle VM Agentは、Solaris Automated Installer (AI)を使用してネットワーク経由でSPARCサーバーに自動的にインストールできます。 これにより、複数のSPARCシステムにわたるSPARC用のOracle VM Serverの迅速なデプロイメントが可能になり、管理上のオーバーヘッドや構成エラーやインストール・エラーの可能性が減ります。 Solaris AIは、「Oracle Solaris 11.3システムのインストール」というタイトルの文書で詳しく説明されています:
http://docs.oracle.com/cd/E53394_01/html/E54756/useaipart.html
この項では、すでにSolaris AIについて十分理解しており、SolarisをSPARCシステムにデプロイするためにインストール・サーバーを設定できることを前提としています。 この節では、SPARC用のOracle VM Agentおよびその他の必要なパッケージも、SPARCシステムにインストールして構成するために実行する必要がある追加ステップについて説明します。
複数のSPARCシステムにSPARC用のOracle VM Serverを迅速にデプロイメントするためにSPARC AIを構成および構成するには、次のステップを実行する必要があります:
-
SPARCソフトウェア用のOracle VM Agentを使用してIPSリポジトリを設定します。
-
Oracle Solarisインストール・サービスを作成します。
-
SPARC用のOracle VM Agentのインストール・マニフェストを作成します。
-
SPARC用のOracle VM Serverのインストール用の構成プロファイルを作成します。
-
SPARCハードウェアにSPARC用のOracle VM Serverをインストールします。
3.2.1 Distributed Lock Manager (DLM)パッケージのインストール
DLMパッケージをまだインストールしていない場合は、Oracle VM Agentをインストールする前にダウンロードしてインストールする必要があります。 DLMパッケージは、サーバー・プール・クラスタリングをサポートする必要があります。
DLMパッケージovs-dlm-3.4.
をhttps://edelivery.oracle.com/oraclevmからダウンロードします。 ソフトウェアのダウンロードの詳細については、1.2項、「インストールISOおよびパッケージの入手」を参照してください。
x
-bxxx
.p5p
DLMパッケージをIPSリポジトリに追加し、そこからインストールすることができます。 3.2.2項、「IPSリポジトリの設定」を参照してください。
DLMパッケージをインストールするには、次の手順を実行します:
-
ovs-configサービスを停止します:
# svcadm disable -s ovs-config
-
DLMパッケージをインストールします:
# pkg install -g ovs-dlm-
3.4.x
-bxxx
.p5p dlm -
ovs-configサービスを再起動します:
# svcadm enable ovs-config
3.2.2 IPSリポジトリの設定
Solarisのインストールに加えて、IPSリポジトリはSPARCソフトウェア用のOracle VM Agentをインストールするように構成する必要があります。 これを行うには、インストール中に使用するSPARCソフトウェア・パッケージ用のOracle VM Agentを含むIPSリポジトリを設定する必要があります。
-
HTTPを介してアクセス可能なパッケージ・リポジトリをまだ作成していない場合は、リポジトリをホストする予定のシステムで次の操作を実行してリポジトリを作成する必要があります:
# pkgrepo create
/path/to/my-repository
# svccfg -s application/pkg/server setprop pkg/inst_root=/path/to/my-repository
# svccfg -s application/pkg/server setprop pkg/port=8888 # svcadm refresh application/pkg/server # svcadm enable application/pkg/server -
パッケージ・リポジトリ・サーバーがオンラインであることを確認します:
# svcs pkg/server STATE STIME FMRI online
timestamp
svc:/application/pkg/server:default -
1.2項、「インストールISOおよびパッケージの入手」で説明されているように、https://edelivery.oracle.com/oraclevmからSPARCソフトウェア用の最新のOracle VM Agentをダウンロードしてください。
-
ソフトウェアを抽出します。たとえば、次のようにします:
# tar xzf ovs-ldoms-3.4.
x
-bxxx
.tar.gz -
ソフトウェアをパッケージ・リポジトリにコピーします。次に例を示します:
# pkgrecv -s ovs-ldoms-3.4.
x
-bxxx
/ovs-ldoms.p5p -d/path/to/my-repository
'ovm/*' # pkgrecv -s ovs-dlm-3.4.x
-bxxx
.p5p -d/path/to/my-repository
'ovm/*' -
パッケージ・リポジトリ・サーバーを再起動し、オンラインであることを確認します:
# svcadm restart application/pkg/server # svcs pkg/server
-
パッケージ・リポジトリ・サーバーがメンテナンス・ステータスにある場合は、サービスを消去します:
# svcadm clear pkg/server
-
リポジトリの内容が使用可能であることを確認します。次に例を示します:
# pkgrepo list -s
/path/to/my-repository
# pkgrepo list -shttp://my-repo-server:8888/
3.2.3 Oracle Solarisインストール・サービスの作成
Oracle Solaris 11.3をネットワーク経由でインストールするには、installadm create-serviceコマンドを使用してOracle Solarisインストール・サービスを作成する必要があります。
自動インストール(AI)ツール・パッケージには、installadmコマンドが用意されています。 AIツール・パッケージは、pkg install install/installadmコマンドを使用してインストールできます。
Oracle Solarisインストール・サービスを作成する手順については、「Oracle Solaris 11.3システムのインストール」を参照してください:
http://docs.oracle.com/cd/E53394_01/html/E54756/useaipart.html
手順が完了したら、installadm listコマンドを使用して、インストール・サービスが正しく設定されていることを確認できます。 このコマンドの出力は、次のようになります:
# installadm list Service Name Alias Of Status Arch Image Path ------------ -------- ------ ---- ----------solaris11_3_12_5_0-sparc
- on sparc/export/auto_install/solaris11_3_12_5_0-sparc
出力例では、インストール・サービスはsolaris11_3_12_5_0-sparc
です。
ソフトウェアをダウンロードするには、Oracle Solaris 11.3サポート・リポジトリ更新(SRU)インデックスID 2045311.1 (My Oracle Support)を参照してください:
https://support.oracle.com/epmos/faces/DocumentDisplay?id=2045311.1
SPARC 3.3用のOracle VM ServerがOracle Solaris 11.3に統合されました。
3.2.4 インストール・マニフェストの作成
カスタムXML AIマニフェスト・ファイルを作成して、Oracle VM Agentを自動的に構成する必要があります。 カスタムXML AIマニフェスト・ファイルの詳細については、以下の「XML AIマニフェスト・ファイルのカスタマイズ」を参照してください:
http://docs.oracle.com/cd/E53394_01/html/E54756/gmfbv.html#scrolltoc
-
まず、インストール・サービスのデフォルト・マニフェストをコピーします:
# installadm list -n solaris11_3_12_5_0-sparc -m Service/Manifest Name Status Criteria --------------------- ------ -------- solaris11_3_12_5_0-sparc orig_default Default None # installadm export -n solaris11_3_12_5_0-sparc -m orig_default -o manifest_ai_ovm.xml
-
エクスポートされた
manifest_ai_ovm.xml
をテキスト・エディタで開き、次のようにカスタマイズします:-
<source>項で、Solarisパブリッシャが定義されていること、およびSPARCリリース3.3以上のパッケージ用のOracle VM Serverを含むSolaris 11.3バージョン用のSolaris IPSリポジトリを指していることを確認します。 次に例を示します。
<publisher name="solaris"> <origin name="http://solaris-11-repository"/> </publisher>
-
<source>項で、SPARCソフトウェア用にOracle VM Agentで設定したIPSリポジトリへの参照をOracle VM (ovm)パブリッシャに追加します。 次に例を示します。
<publisher name="ovm"> <origin name="http://my-repo-server:8888"/> </publisher>
-
<software_data> install項で、次の行を追加して、SPARCソフトウェア用のOracle VM AgentとDLMソフトウェアをインストールします:
<name>pkg:/ovm/ovs-agent</name> <name>pkg:/ovm/dlm</name>
-
-
マニフェストをインストール・サービスに追加します。 さらに、このマニフェストに関連する基準を指定することもできます。 このマニフェストはSPARC sun4vシステムにのみ適用できるので、少なくともsun4v基準を使用する必要があります:
# installadm create-manifest -n solaris11_3_12_5_0-sparc -f manifest_ai_ovm.xml -m ovm -c \ arch="sun4v" # installadm list -m -n solaris11_3_12_5_0-sparc Service/Manifest Name Status Criteria --------------------- ------ -------- solaris11_3_12_5_0-sparc ovm arch = sun4v orig_default Default None
3.2.5 構成プロファイルの作成
インストール後にサーバーを自動的に構成するには、構成プロファイルを提供する必要があります。 構成プロファイルの作成の詳細については、次の「システム構成プロファイルの作成」を参照してください:
http://docs.oracle.com/cd/E53394_01/html/E54756/syscfg-2.html
構成プロファイルを作成するには、対話型構成ツールを実行し、出力をファイルに保存します。 次のコマンドは、対話形式で入力したレスポンスからprofile_ovm.xml
に有効なプロファイルを作成します:
# sysconfig create-profile -o profile_ovm.xml
対話式構成ツールでは、手動でネットワークを構成するオプションを選択する必要があります。そうしないと、インストール・サービスを使用してSPARC用のOracle VM Agentを自動的に構成することはできません。
インストール中にSPARC用のOracle VM Agentを自動的に構成するには、生成されたprofile_ovm.xml
ファイルの<service_bundle>項に次の項を追加します:
<service version="1" type="service" name="ovm/ovs-config">
<instance enabled="true" name="default">
<property_group type="application" name="config">
<propval type="astring" name="password" value="encrypted-password
"/>
<propval type="boolean" name="autoconfig" value="true"/>
</property_group>
</instance>
</service>
encrypted-password
の値を、Oracle VM Agentに使用する暗号化されたパスワードのバージョンに置き換えます。
次のコマンドを使用して、任意のシステム上で暗号化されたパスワードのバージョンを生成できます:
# python -c "import crypt, sys; print crypt.crypt(sys.argv[-1], \
'\$6\$%s\$' % sys.argv[-2])" $(pwgen -s 16 1) password
password
を、Oracle VM Agentに使用するパスワードで置き換えます。たとえば、次のようになります:
# python -c "import crypt, sys; print crypt.crypt(sys.argv[-1], \ '\$6\$%s\$' % sys.argv[-2])" $(pwgen -s 16 1) s3cr3tp4ssw0rd $6$-c$pgcCqd6Urrepi9EzdK93x5XSpyiNzup7SAcDNjVOtsqm6HFNeg385wMu1GjE.J.S.FL8J7gtl5VZnq7tOAd/N0
このコマンドの出力は、構成プロファイルに追加した項で置き換える必要があるencrypted-password
の値です。
最後に、構成プロファイルをインストール・サービスに追加します。 さらに、このプロファイルに関連する基準を指定することもできます。 このプロファイルはSPARC sun4vシステムにのみ適用されるため、少なくともsun4v基準を使用する必要があります:
# installadm create-profile -n solaris11_3_12_5_0-sparc --file profile_ovm.xml -c arch=sun4v # installadm list -p Service/Profile Name Criteria -------------------- -------- solaris11_3_12_5_0-sparc profile_ovm.xml arch = sun4v
3.2.6 インストールの実行
Solaris自動インストールを使用したサーバーのインストールの詳細については、「クライアント・システムのインストール」を参照してください:
http://docs.oracle.com/cd/E53394_01/html/E54756/client.html
インストール・サーバーでは、インストールする各サーバーのMACアドレスと、設定したインストール・サービスを関連付ける必要があります。 これは、次のコマンドを実行することによって実現されます:
# installadm create-client -n solaris11_3_12_5_0-sparc -e mac-address
mac-address
を、インストール・サービスへの接続に使用するサーバー上のネットワーク・インタフェースの実際のMACアドレスに置き換えます。
ターゲット・サーバーで、インストール・サービスの情報を提供するようにDHCPを構成している場合は、起動時に次のコマンドを発行できます:
ok boot net:dhcp - install
DHCPを構成していない場合は、ターゲット・サーバーでブート時に次のコマンドを発行します:
ok setenv network-boot-arguments host-ip=client-ip
,router-ip=router-ip
,\ subnet-mask=subnet-mask
,hostname=hostname
,\ file=http://install-server-ip-address:5555
/cgi-bin/wanboot-cgi ok boot net - install
client-ip
をサーバーに割り当てるIPアドレスに、router-ip
をルーターまたはデフォルト・ゲートウェイのIPアドレスに、subnet-mask
をネットワークのサブネット・マスクに、hostname
をサーバーに使用するホスト名に置き換えます。 最後に、file
パラメータに指定したURLが、Solaris AIサーバーにアクセスするためのURLと一致することを確認します。