ヘッダーをスキップ
Oracle VM Serverユーザーズ・ガイド
リリース2.2
B57076-01
  目次
目次
索引
索引

戻る
戻る
 
次へ
次へ
 

C ゲスト構成

この付録では、ゲスト・ネットワーク・ドライバのインストール、ゲスト構成ファイルのオプションおよびパラメータ、ゲストを作成するために変更および使用できるゲスト構成ファイルの例について説明します。 構成パラメータおよび一般的な値の詳細は、Oracle VM Serverの/etc/xen/xmexample.hvmファイルを参照してください。

ゲスト構成ファイルを、/OVS/running_pool/domain/vm.cfgとして作成した後、次のコマンドを使用してゲストを作成します。

# xm create /OVS/running_pool/domain/vm.cfg

この付録の構成は次のとおりです。

C.1 e100およびe1000ネットワーク・デバイス・エミュレータ

ハードウェア仮想化ゲスト用にIntel 8255x 10/100 Mbps Ethernetコントローラ(e100コントローラ)およびIntel 82540EM Gigabit Ethernetコントローラ(e1000コントローラ)のネットワーク・デバイス・エミュレータを使用できます。 e1000コントローラはGigabit Ethernetコントローラで、デフォルトのEthernetコントローラに比べてネットワーク・スループットが向上します。

これらのネットワーク・エミュレータを使用するには、ゲストにネットワーク・デバイス・ドライバをインストールし、e100またはe1000のコントローラ・モデル・タイプを指定するようにゲスト構成ファイルを変更します。 たとえば、e1000コントローラを使用するには、次のようにゲスト構成ファイルのvifエントリにmodel=e1000を設定します。

vif = [ 'type=ioemu, mac=00:16:3e:09:bb:c6, bridge=xenbr2, model=e1000']

xm createコマンドを使用して再度ゲストを作成します。 これで、ゲストに、より高速なe1000コントローラが使用されています。

C.2 Quality of Service(QoS)

Quality of Service(QoS)とは、異なるアプリケーション、ユーザーまたはデータ・フローに様々な優先度を指定したり、データ・フローに一定レベルのパフォーマンスを保証できることです。 Oracle VM Server上で実行されているゲストの仮想ネットワーク・インタフェースと仮想ディスクのQoSパラメータを設定できます。 ゲスト仮想ネットワーク・インタフェースは物理ネットワーク・インタフェース・カード(NIC)を共有し、ユーザーは仮想ネットワーク・インタフェースが使用できる帯域幅を制御できます。 ゲストの仮想ディスクのI/O優先度を制御することもできます。

この項には、次の内容が含まれます。

Oracle VM ServerおよびOracle VM ManagerでQoSパラメータを設定できます。 Oracle VM ManagerでのQoSパラメータの設定の詳細は、『Oracle VM Managerユーザーズ・ガイド』を参照してください。

C.2.1 ディスクの優先度の設定

ゲストの仮想ディスクの優先度を設定できます。 各スケジューリング期間にプロセスが受け取るタイム・スライスを、8つの優先度レベルで設定できます。 優先度の引数は0〜7であり、数値が小さいほど優先度が高くなります。 同じ優先度で実行されている仮想ディスクは、ラウンドロビン方式で提供されます。

仮想ディスクの優先度は、ゲストの構成ファイル(vm.cfg)のdisk_other_configパラメータで制御されます。 disk_other_configパラメータはリストとして入力されます。各リスト項目はQoS設定を表します。 disk_other_configパラメータで使用する構文は次のとおりです。

disk_other_config = [[ 'front_end', 'qos_algorithm_type', 'qos_algorithm_params']]

front_endは、QoSを適用する仮想ディスク・デバイスのフロント・エンド名です。 たとえば、hdahdbxvdaなどです。

qos_algorithm_typeはQoSのアルゴリズムです。 現在はioniceのみがサポートされています。

qos_algorithm_paramsは、qos_algorithm_typeのパラメータです。 ioniceアルゴリズムの場合、これにはスケジューリング・クラスと優先度(sched=best-effort,prio=5など)を指定できます。

次に例を示します。

disk_other_config = [['hda', 'ionice', 'sched=best-effort,prio=5'], ['hdb', 'ionice', 'sched=best-effort,prio=6']]

実行中のゲストの構成ファイルを変更する場合は、ゲストを停止した後に、xm create vm.cfgコマンドを使用して再度ゲストを起動して変更を有効にする必要があります。 xm rebootコマンドでは、ゲストが新しい構成で再起動されません。

C.2.2 インバウンド・ネットワーク・トラフィックの優先度の設定

ゲストのインバウンド・ネットワーク・トラフィックの優先度を設定できます。 インバウンド・ネットワーク・トラフィックの優先度は、ゲストの構成ファイル(vm.cfg)のvif_other_configパラメータで制御されます。 vif_other_configパラメータはリストとして入力されます。各リスト項目はQoS設定を表します。 vif_other_configパラメータで使用する構文は次のとおりです。

vif_other_config = [[ 'mac', 'qos_algorithm_type', 'qos_algorithm_params']]

macは、QoSを適用する仮想ネットワーク・デバイスのMACアドレスです。

qos_algorithm_typeはQoSのアルゴリズムです。 現在はtbfのみがサポートされています。

qos_algorithm_paramsは、qos_algorithm_typeのパラメータです。 tbfアルゴリズムの場合、これには速度制限と待機時間(rate=8mbit,latency=50msなど)を指定できます。

次に例を示します。

vif_other_config = [['00:16:3e:31:d5:4b', 'tbf', 'rate=8mbit,latency=50ms'], ['00:16:3e:52:c4:03', 'tbf', 'rate=10mbit']]

実行中のゲストの構成ファイルを変更する場合は、ゲストを停止した後に、xm create vm.cfgコマンドを使用して再度ゲストを起動して変更を有効にする必要があります。 xm rebootコマンドでは、ゲストが新しい構成で再起動されません。

C.2.3 アウトバウンド・ネットワーク・トラフィックの優先度の設定

ゲストのアウトバウンド・ネットワーク・トラフィックの優先度を設定できます。 アウトバウンド・ネットワーク・トラフィックの優先度は、ゲストの構成ファイル(vm.cfg)のvifオプションのrateパラメータで制御されます。 rateパラメータでは、クレジット確保の粒度を指定するための時間枠がオプションでサポートされています。 デフォルトの時間枠は50msです。 たとえば、rate=10Mb/srate=250KB/sまたはrate=1MB/s@20msとして速度を設定できます。 次にゲストのネットワーク・トラフィックの優先度を設定するためのvifオプションの例を示します。

vif = ['mac=00:16:3e:31:d5:4b,bridge=xenbr0,rate=10Mb/s@50ms']

実行中のゲストの構成ファイルを変更する場合は、ゲストを停止した後に、xm create vm.cfgコマンドを使用して再度ゲストを起動して変更を有効にする必要があります。 xm rebootコマンドでは、ゲストが新しい構成で再起動されません。

C.3 仮想CPUの構成ファイルのパラメータ

構成ファイルのvcpusパラメータを使用して、ゲスト・ドメインで使用される仮想CPUの数を設定できます。 また、次の構文を使用してvcpu_availパラメータを設定し、ドメインの起動時に特定の仮想CPUを有効にすることもできます。

vcpu_avail {bitmap}

bitmapによって、ドメインの各仮想CPUを使用するかどうかがドメインに指示されます。ドメインの起動時には常にvcpu0が有効になるため、vcpu_availの最後のビットは無視されます。 デフォルトでは、すべての仮想CPUが有効になります。

たとえば、vcpu0のみを有効にするには、次のように指定します。

vcpu_avail = 1

また、次のように指定すると、vcpu0、vcpu3およびvcpu4が有効になります。

vcpu_avail = 25 # 11001

vcpu0は常に有効になるため、このコマンドは次のコマンドと同等となります。

vcpu_avail = 24 # 11000

C.4 構成ファイルの簡単な例

ゲストを作成する構成ファイルの簡単な例は、次のとおりです。

disk = [ 'file:/mnt/el4u5_64_hvm//system.img,hda,w' ]
memory=4096
vcpus=2
name="el4u5_64_hvm"
vif = [ ' ' ]   #By default no n/w interfaces are configured. E.g:  A default hvm install will have the line as vif=[ 'type=ioemu,bridge=xenbr0' ]
builder = "hvm"
device_model = "/usr/lib/xen/bin/qemu-dm"

vnc=1
vncunused=1

apic=1
acpi=1
pae=1
serial = "pty" # enable serial console

on_reboot   = 'restart'
on_crash    = 'restart'

C.5 構成ファイルの複雑な例

ゲストを作成する構成ファイルの複雑な例は、次のとおりです。

# An example of setting up the install time loopback mount
#  using nfs shared directory with iso images
#  to create "pseudo cdrom device" on /dev/loop*:
#
#    mount ca-fileserver2:/vol/export /srv/
#    mount -o loop,ro /srv/osinstall/RedHat/FC6/F-6-x86_64-DVD.iso /mnt
#
# You can tell what loop device to use by looking at /etc/mtab after the mount
# The first set of disk parameters commented out below are
#   "install time disk parameters" with the "pseudo" cdrom.
# Your new domU HVM install will see "/dev/sda" just like a usual hardware
# machine.
#disk = [  'phy:/dev/vgxen/lvol0,hda,w', 'phy:/dev/loop0,hdc:cdrom,r' ]
# Example of after-setup "HVM up and running" disk parameters below;
#  the last three devices were added later
#  and last two are shared, writeable.
# Note, for HVM you must use "whole" device.
# Do not try to get domU to see a partition on a device...
#   For example, in a HVM this will not work :  'phy:/dev/vgxen/tls4-swap,hdb1,w'
# Best that you fdisk any extra or added devices within one of your domUs
disk = [ 'phy:/dev/vgxen/lvol0,hda,w',
         'phy:/dev/vgxen/tls4-swap,hdb,w',
         'phy:/dev/vgxen/sharedvol1,hdc,w!',
         'phy:/dev/vgxen/sharedvol2,hdd,w!' ]
# Result of this config file from within the new domU:
#  [root@ca-DomU ~]# sfdisk -s
#  /dev/sda:  10485760
#  /dev/sdb:   8388608
#  /dev/sdc: 104857600
#  /dev/sdd: 104857600
# For vnc setup try:
vfb = [ "type=vnc,vncunused=1,vnclisten=0.0.0.0" ]
# Example with a passwd of "foo".
#vfb = [ "type=vnc,vncunused=1,vnclisten=0.0.0.0,vncpasswd=foo" ]
# Remember, this file is "per individual" domU
# during install you will need to change
# /etc/xen/xend-config.sxp
# (vnc-listen '127.0.0.1')
# to: (vnc-listen '0.0.0.0')
#
# then from any machine do:
#  "vncviewer <your dom0 ip or hostname>"
# to see vnc console

C.6 Virtual Iron移行(VHD)の構成ファイルの例

Virtual Iron仮想マシン(またはその他のVHDファイル)を移行する場合は、ゲスト構成ファイル(vm.cfg)とともにすべてのファイルを/OVS/running_pool/domainディレクトリに配置する必要があります。 vm.cfgファイルは手動で作成する必要があります。 Oracle VM Managerを使用して仮想マシンをインポートします。


注意:

Virtual Iron仮想マシンを移行する前に、Virtual Ironの「VIセンター・ストレージ」ビューから任意のディスクをVHDファイルにエクスポートし、Virtual IronのVSToolsをアンインストールしてください。

Virtual Iron仮想マシン・ゲストを移行するための構成ファイルの例を次に示します。

acpi = 1
apic = 1
builder = 'hvm'
device_model = '/usr/lib/xen/bin/qemu-dm'
disk = ['file:/OVS/running_pool/domain/vm_name.vhd,sda,w',]
kernel = '/usr/lib/xen/boot/hvmloader'
keymap = 'en-us'
memory = '2048'
on_crash = 'restart'
on_reboot = 'restart'
pae = 1
timer_mode = 1
vcpus = 2