この節では、非大域ゾーンのクラスタを設定する手順について説明します。
clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。
このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。
クラスタ範囲では、ゾーンクラスタ全体に影響します。
ノード範囲では、指定した 1 つのゾーンクラスタノードにのみ影響します。
リソース範囲では、リソース範囲をどの範囲から入力するかに応じて、特定のノード、またはゾーンクラスタ全体に影響します。ほとんどのリソースは、ノード範囲からのみ入力できます。範囲は、次のプロンプトで識別できます。
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting |
clzonecluster ユーティリティーを使用することで、Solaris ゾーンの任意のリソースパラメータや、ゾーンクラスタに固有のパラメータを指定できます。ゾーンクラスタで設定できるパラメータの詳細は、clzonecluster(1CL) マニュアルページを参照してください。Solaris ゾーンのリソースパラメータに関する追加情報は、zonecfg(1M) マニュアルページを参照してください。
この節では、非大域ゾーンのクラスタを設定する方法を説明します。
非大域ゾーンのクラスタを作成するには、この手順を実行してください。
グローバルクラスタを作成します。第 3 章グローバルクラスタの確立を参照してください。
ゾーンクラスタを作成するためのガイドラインと要件を確認します。「ゾーンクラスタ」を参照してください。
次の情報を用意します。
ゾーンクラスタに割り当てる固有名。
ゾーンクラスタのノードが使用するゾーンパス。詳細は、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones 』の「Resource and Property Types」で、zonepath プロパティーの説明を参照してください。
ゾーンクラスタノードを作成するグローバルクラスタ内の各ノードの名前。
各ゾーンクラスタノードに割り当てる、ゾーンの公開ホスト名またはホストエイリアス。
各ゾーンクラスタノードが使用する、パブリックネットワークの IP アドレス。
各ゾーンクラスタノードがパブリックネットワークに接続するために使用するパブリックネットワークアダプタの名前。
グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
グローバルクラスタのそのノードが、クラスタモードである必要があります。
いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online |
デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit |
(省略可能) ゾーンクラスタに 1 つ以上のノードを追加します。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> exit |
ゾーンクラスタ構成を検証します。
指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Running basenode2 zone-2 Offline Running |
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"... Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"... |
次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。
次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。このゾーンクラスタは、ゾーンパスとして /zones/sczone を使用します。このゾーンクラスタの最初のノードは、ホスト名 zc-host-1 を割り当てられ、パブリックネットワークアドレス 172.16.0.1 と bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。この第 2 のゾーンクラスタノードは、ホスト名 zc-host-2 を割り当てられ、パブリックネットワークアドレス 172.16.0.2 と bge1 アダプタを使用します。
create set zonepath=/zones/sczone add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 と zc-host-2 です。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running |
ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。
ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。
この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。
ファイルシステムをゾーンクラスタに追加し、オンラインにすると、そのファイルシステムは、そのゾーンクラスタ内部から見えるようになります。
clzonecluster コマンドを使用して、単一のグローバルクラスタノードにマウントされているローカルファイルシステムをゾーンクラスタに追加することはできません。その代わりに zonecfg コマンドを、スタンドアロンシステムの場合と同様の方法で使用してください。ローカルファイルシステムは、クラスタ制御の対象にはなりません。
クラスタファイルシステムは、ゾーンクラスタには追加できません。
この節では、次の手順について説明します。
グローバルクラスタ上で、ゾーンクラスタが使用する高可用性ローカルファイルシステムを追加するには、この手順を実行してください。
ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。
グローバルクラスタ上で、ゾーンクラスタで使用する高可用性ローカルファイルシステムを設定します。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタにマウントするファイルシステムの /etc/vfstab エントリを表示します。
phys-schost# vi /etc/vfstab |
ファイルシステムをゾーンクラスタ構成に追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> exit |
ファイルシステムのマウントポイントを指定する
ディスクデバイスの名前を指定する
raw ディスクデバイスの名前を指定する
ファイルシステムの種類を指定する
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
ここでは、sczone ゾーンクラスタで使用する高可用性ローカルファイルシステム /global/oracle/d1 を追加する例を示します。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [] … |
ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。
グローバルクラスタで ZFS ストレージプールを設定します。
ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。
ZFS プールの作成手順については、『Solaris ZFS Administration Guide 』を参照してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
プールをゾーンクラスタ構成に追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> exit |
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 … |
ゾーンクラスタで使用する Sun StorageTek QFS 共有ファイルシステムを追加するには、この手順を実行してください。
この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。
グローバルクラスタ上で、ゾーンクラスタで使用する QFS 共有ファイルシステムを構成します。
手順については、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』の「Tasks for Configuring the Sun StorEdge QFS Shared File System for Oracle Files」の説明に従ってください。
目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。
この手順の残りすべてのステップは、グローバルクラスタの 1 つの投票ノードから実行します。
ゾーンクラスタにマウントするファイルシステムの /etc/vfstab エントリを表示します。
このエントリの情報を使用して、ゾーンクラスタ構成に対してファイルシステムを指定します。
phys-schost# vi /etc/vfstab |
ゾーンクラスタ構成にファイルシステムを追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> exit |
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノード側からは、ファイルシステムのマウントポイントは db_qfs/Data1 です。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] … |
この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。
デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。
ここでは、次の手順について説明します。
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加するメタデバイスのあるディスクセットを識別し、それがオンラインかどうかを判定します。
phys-schost# cldevicegroup status |
追加するディスクセットがオンラインでない場合は、オンラインにします。
phys-schost# cldevicegroup online diskset |
追加するディスクセットに対応するセット番号を判定します。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
ゾーンクラスタで使用するメタデバイスを追加します。
set match= エントリごとに個別の add device セッションを使用します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
メタデバイスのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次は、ディスクセット oraset のメタデバイス d1 を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加するディスクセットを識別し、それがオンラインかどうかを判定します。
phys-schost# cldevicegroup status |
追加するディスクセットがオンラインでない場合は、オンラインにします。
phys-schost# cldevicegroup online diskset |
追加するディスクセットに対応するセット番号を判定します。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
ゾーンクラスタで使用するディスクセットを追加します。
set match= エントリごとに個別の add device セッションを使用します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
ディスクセットのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次に、ディスクセット oraset を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加する DID デバイスを識別します。
追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。
phys-schost# cldevice list -v |
ゾーンクラスタで使用する DID デバイスを追加します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
DID デバイスのフルデバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次に、DID デバイス d10 を sczone ゾーンクラスタに追加する例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタノードに raw ディスクデバイス (cNtXdYsZ) をエクスポートするには、非大域ゾーンのその他のブランドに通常エクスポートする場合と同様に、zonecfg コマンドを使用します。
このようなデバイスは、clzonecluster コマンドによって制御されませんが、ノードのローカルデバイスとして扱われます。非大域ゾーンへの raw ディスクデバイスのエクスポートについては、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「How to Import Raw and Block Devices by Using zonecfg」を参照してください。