この付録では、ゲスト・ネットワーク・ドライバのインストール、ゲスト構成ファイルのオプションおよびパラメータ、ゲストを作成するために変更および使用できるゲスト構成ファイルの例について説明します。 構成パラメータおよび一般的な値の詳細は、Oracle VM Serverの/etc/xen/xmexample.hvmファイルを参照してください。
ゲスト構成ファイルを、/OVS/running_pool/domain/vm.cfgとして作成した後、次のコマンドを使用してゲストを作成します。
# xm create /OVS/running_pool/domain/vm.cfg
この付録の構成は次のとおりです。
ハードウェア仮想化ゲスト用にIntel 8255x 10/100 Mbps Ethernetコントローラ(e100コントローラ)およびIntel 82540EM Gigabit Ethernetコントローラ(e1000コントローラ)のネットワーク・デバイス・エミュレータを使用できます。 e1000コントローラはGigabit Ethernetコントローラで、デフォルトのEthernetコントローラに比べてネットワーク・スループットが向上します。
これらのネットワーク・エミュレータを使用するには、ゲストにネットワーク・デバイス・ドライバをインストールし、e100
またはe1000
のコントローラ・モデル・タイプを指定するようにゲスト構成ファイルを変更します。 たとえば、e1000コントローラを使用するには、次のようにゲスト構成ファイルのvif
エントリにmodel=e1000
を設定します。
vif = [ 'type=ioemu, mac=00:16:3e:09:bb:c6, bridge=xenbr2, model=e1000']
xm create
コマンドを使用して再度ゲストを作成します。 これで、ゲストに、より高速なe1000コントローラが使用されています。
Quality of Service(QoS)とは、異なるアプリケーション、ユーザーまたはデータ・フローに様々な優先度を指定したり、データ・フローに一定レベルのパフォーマンスを保証できることです。 Oracle VM Server上で実行されているゲストの仮想ネットワーク・インタフェースと仮想ディスクのQoSパラメータを設定できます。 ゲスト仮想ネットワーク・インタフェースは物理ネットワーク・インタフェース・カード(NIC)を共有し、ユーザーは仮想ネットワーク・インタフェースが使用できる帯域幅を制御できます。 ゲストの仮想ディスクのI/O優先度を制御することもできます。
この項には、次の内容が含まれます。
Oracle VM ServerおよびOracle VM ManagerでQoSパラメータを設定できます。 Oracle VM ManagerでのQoSパラメータの設定の詳細は、『Oracle VM Managerユーザーズ・ガイド』を参照してください。
ゲストの仮想ディスクの優先度を設定できます。 各スケジューリング期間にプロセスが受け取るタイム・スライスを、8つの優先度レベルで設定できます。 優先度の引数は0〜7であり、数値が小さいほど優先度が高くなります。 同じ優先度で実行されている仮想ディスクは、ラウンドロビン方式で提供されます。
仮想ディスクの優先度は、ゲストの構成ファイル(vm.cfg)のdisk_other_config
パラメータで制御されます。 disk_other_config
パラメータはリストとして入力されます。各リスト項目はQoS設定を表します。 disk_other_config
パラメータで使用する構文は次のとおりです。
disk_other_config = [[ 'front_end', 'qos_algorithm_type', 'qos_algorithm_params']]
front_endは、QoSを適用する仮想ディスク・デバイスのフロント・エンド名です。 たとえば、hda
、hdb
、xvda
などです。
qos_algorithm_typeはQoSのアルゴリズムです。 現在はionice
のみがサポートされています。
qos_algorithm_paramsは、qos_algorithm_typeのパラメータです。 ioniceアルゴリズムの場合、これにはスケジューリング・クラスと優先度(sched=best-effort,prio=5
など)を指定できます。
次に例を示します。
disk_other_config = [['hda', 'ionice', 'sched=best-effort,prio=5'], ['hdb', 'ionice', 'sched=best-effort,prio=6']]
実行中のゲストの構成ファイルを変更する場合は、ゲストを停止した後に、xm create vm.cfg
コマンドを使用して再度ゲストを起動して変更を有効にする必要があります。 xm reboot
コマンドでは、ゲストが新しい構成で再起動されません。
ゲストのインバウンド・ネットワーク・トラフィックの優先度を設定できます。 インバウンド・ネットワーク・トラフィックの優先度は、ゲストの構成ファイル(vm.cfg)のvif_other_config
パラメータで制御されます。 vif_other_config
パラメータはリストとして入力されます。各リスト項目はQoS設定を表します。 vif_other_config
パラメータで使用する構文は次のとおりです。
vif_other_config = [[ 'mac', 'qos_algorithm_type', 'qos_algorithm_params']]
macは、QoSを適用する仮想ネットワーク・デバイスのMACアドレスです。
qos_algorithm_typeはQoSのアルゴリズムです。 現在はtbf
のみがサポートされています。
qos_algorithm_paramsは、qos_algorithm_typeのパラメータです。 tbfアルゴリズムの場合、これには速度制限と待機時間(rate=8mbit,latency=50ms
など)を指定できます。
次に例を示します。
vif_other_config = [['00:16:3e:31:d5:4b', 'tbf', 'rate=8mbit,latency=50ms'], ['00:16:3e:52:c4:03', 'tbf', 'rate=10mbit']]
実行中のゲストの構成ファイルを変更する場合は、ゲストを停止した後に、xm create vm.cfg
コマンドを使用して再度ゲストを起動して変更を有効にする必要があります。 xm reboot
コマンドでは、ゲストが新しい構成で再起動されません。
ゲストのアウトバウンド・ネットワーク・トラフィックの優先度を設定できます。 アウトバウンド・ネットワーク・トラフィックの優先度は、ゲストの構成ファイル(vm.cfg)のvif
オプションのrate
パラメータで制御されます。 rate
パラメータでは、クレジット確保の粒度を指定するための時間枠がオプションでサポートされています。 デフォルトの時間枠は50ms
です。 たとえば、rate=10Mb/s
、rate=250KB/s
またはrate=1MB/s@20ms
として速度を設定できます。 次にゲストのネットワーク・トラフィックの優先度を設定するためのvif
オプションの例を示します。
vif = ['mac=00:16:3e:31:d5:4b,bridge=xenbr0,rate=10Mb/s@50ms']
実行中のゲストの構成ファイルを変更する場合は、ゲストを停止した後に、xm create vm.cfg
コマンドを使用して再度ゲストを起動して変更を有効にする必要があります。 xm reboot
コマンドでは、ゲストが新しい構成で再起動されません。
構成ファイルのvcpusパラメータを使用して、ゲスト・ドメインで使用される仮想CPUの数を設定できます。 また、次の構文を使用してvcpu_availパラメータを設定し、ドメインの起動時に特定の仮想CPUを有効にすることもできます。
vcpu_avail {bitmap}
bitmapによって、ドメインの各仮想CPUを使用するかどうかがドメインに指示されます。ドメインの起動時には常にvcpu0が有効になるため、vcpu_availの最後のビットは無視されます。 デフォルトでは、すべての仮想CPUが有効になります。
たとえば、vcpu0のみを有効にするには、次のように指定します。
vcpu_avail = 1
また、次のように指定すると、vcpu0、vcpu3およびvcpu4が有効になります。
vcpu_avail = 25 # 11001
vcpu0は常に有効になるため、このコマンドは次のコマンドと同等となります。
vcpu_avail = 24 # 11000
ゲストを作成する構成ファイルの簡単な例は、次のとおりです。
disk = [ 'file:/mnt/el4u5_64_hvm//system.img,hda,w' ] memory=4096 vcpus=2 name="el4u5_64_hvm" vif = [ ' ' ] #By default no n/w interfaces are configured. E.g: A default hvm install will have the line as vif=[ 'type=ioemu,bridge=xenbr0' ] builder = "hvm" device_model = "/usr/lib/xen/bin/qemu-dm" vnc=1 vncunused=1 apic=1 acpi=1 pae=1 serial = "pty" # enable serial console on_reboot = 'restart' on_crash = 'restart'
ゲストを作成する構成ファイルの複雑な例は、次のとおりです。
# An example of setting up the install time loopback mount # using nfs shared directory with iso images # to create "pseudo cdrom device" on /dev/loop*: # # mount ca-fileserver2:/vol/export /srv/ # mount -o loop,ro /srv/osinstall/RedHat/FC6/F-6-x86_64-DVD.iso /mnt # # You can tell what loop device to use by looking at /etc/mtab after the mount # The first set of disk parameters commented out below are # "install time disk parameters" with the "pseudo" cdrom. # Your new domU HVM install will see "/dev/sda" just like a usual hardware # machine. #disk = [ 'phy:/dev/vgxen/lvol0,hda,w', 'phy:/dev/loop0,hdc:cdrom,r' ] # Example of after-setup "HVM up and running" disk parameters below; # the last three devices were added later # and last two are shared, writeable. # Note, for HVM you must use "whole" device. # Do not try to get domU to see a partition on a device... # For example, in a HVM this will not work : 'phy:/dev/vgxen/tls4-swap,hdb1,w' # Best that you fdisk any extra or added devices within one of your domUs disk = [ 'phy:/dev/vgxen/lvol0,hda,w', 'phy:/dev/vgxen/tls4-swap,hdb,w', 'phy:/dev/vgxen/sharedvol1,hdc,w!', 'phy:/dev/vgxen/sharedvol2,hdd,w!' ] # Result of this config file from within the new domU: # [root@ca-DomU ~]# sfdisk -s # /dev/sda: 10485760 # /dev/sdb: 8388608 # /dev/sdc: 104857600 # /dev/sdd: 104857600 # For vnc setup try: vfb = [ "type=vnc,vncunused=1,vnclisten=0.0.0.0" ] # Example with a passwd of "foo". #vfb = [ "type=vnc,vncunused=1,vnclisten=0.0.0.0,vncpasswd=foo" ] # Remember, this file is "per individual" domU # during install you will need to change # /etc/xen/xend-config.sxp # (vnc-listen '127.0.0.1') # to: (vnc-listen '0.0.0.0') # # then from any machine do: # "vncviewer <your dom0 ip or hostname>" # to see vnc console
Virtual Iron仮想マシン(またはその他のVHDファイル)を移行する場合は、ゲスト構成ファイル(vm.cfg)とともにすべてのファイルを/OVS/running_pool/domainディレクトリに配置する必要があります。 vm.cfgファイルは手動で作成する必要があります。 Oracle VM Managerを使用して仮想マシンをインポートします。
注意: Virtual Iron仮想マシンを移行する前に、Virtual Ironの「VIセンター・ストレージ」ビューから任意のディスクをVHDファイルにエクスポートし、Virtual IronのVSToolsをアンインストールしてください。 |
Virtual Iron仮想マシン・ゲストを移行するための構成ファイルの例を次に示します。
acpi = 1 apic = 1 builder = 'hvm' device_model = '/usr/lib/xen/bin/qemu-dm' disk = ['file:/OVS/running_pool/domain/vm_name.vhd,sda,w',] kernel = '/usr/lib/xen/boot/hvmloader' keymap = 'en-us' memory = '2048' on_crash = 'restart' on_reboot = 'restart' pae = 1 timer_mode = 1 vcpus = 2