ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris Cluster ソフトウェアのインストール Oracle Solaris Cluster (日本語) |
1. Oracle Solaris Cluster 構成を計画する
2. グローバルクラスタノードへのソフトウェアのインストール
4. Solaris ボリュームマネージャー ソフトウェアの構成
5. Veritas Volume Manager をインストールして構成する
グローバル以外のゾーンに使用されているクラスタファイルシステムのHAStoragePlus リソースの構成方法
ゾーンクラスタで Trusted Extensions を使用する準備をする
Oracle ACFS ファイルシステムをゾーンクラスタに追加する
ゾーンクラスタに個別のメタデバイスを追加する (Solaris ボリュームマネージャー)
8. Oracle Solaris Cluster モジュールの Sun Management Center へのインストール
この節では、ゾーンクラスタと呼ばれる、Solaris Containers の非大域ゾーンのクラスタ構成手順について説明します。
clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。
このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。
クラスタ範囲では、ゾーンクラスタ全体に影響します。
ノード範囲では、指定した 1 つのゾーンクラスタノードにのみ影響します。
リソース範囲では、リソース範囲をどの範囲から入力するかに応じて、特定のノード、またはゾーンクラスタ全体に影響します。ほとんどのリソースは、ノード範囲からのみ入力できます。範囲は、次のプロンプトで識別できます。
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting
clzonecluster ユーティリティーを使用することで、Solaris ゾーンの任意のリソースパラメータや、ゾーンクラスタに固有のパラメータを指定できます。ゾーンクラスタで設定できるパラメータの詳細は、clzonecluster(1CL) マニュアルページを参照してください。Solaris ゾーンのリソースパラメータに関する追加情報は、zonecfg(1M) マニュアルページを参照してください。
この節では、非大域ゾーンのクラスタを設定する方法を説明します。
この手順では、ゾーンクラスタで Oracle Solaris の Trusted Extensions 機能を使用したり、Trusted Extensions 機能を有効にしたりするために、グローバルクラスタの準備をします。
Trusted Extensions を有効にする計画がない場合は、「ゾーンクラスタを作成する」に進みます。
グローバルクラスタ内の各ノード上で次の手順を実行します。
始める前に
次の作業を実行します。
Oracle Solaris Cluster および Trusted Extensions ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Trusted Extensions ソフトウェアは、エンドユーザー Solaris ソフトウェアグループには含まれていません。
Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
LDAP ネームサービスが Trusted Extensions で使用できるように構成されていることを確認します。 『Oracle Solaris Trusted Extensions 構成ガイド』の第 5 章「Trusted Extensions のための LDAP の構成 (手順)」を参照してください。
ゾーンクラスタでの Trusted Extensions のガイドラインを確認します。 「ゾーンクラスタでの Trusted Extensions のガイドライン」を参照してください。
Trusted Extensions の zoneshare および zoneunshare スクリプトは、システム上のホームディレクトリをエクスポートする機能をサポートします。 Oracle Solaris Cluster 構成ではこの機能はサポートされません。
この機能を無効にするには、/bin/true ユーティリティーへのシンボリックリンクで各スクリプトを置き換えます。 これは各グローバルクラスタノード上で行います。
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
『Oracle Solaris Trusted Extensions 構成ガイド』の「txzonemgr スクリプトを実行する」を参照してください。
ipaddress:admin_low
-failover オプションが含まれているエントリからそのオプションを削除します。
『Oracle Solaris Trusted Extensions 管理の手順』の「遠隔ホストテンプレートを構築する」で説明されているように Solaris 管理コンソールのセキュリティーテンプレートウィザードを使用して、次の作業を実行します。
クラスタコンポーネントで使用されている IP アドレスの新しいエントリを作成し、各エントリに CIPSO テンプレートを割り当てます。
グローバルクラスタノードの /etc/inet/hosts ファイルに存在する次の IP アドレスごとに、エントリを追加します。
それぞれのグローバルクラスタノードのプライベート IP アドレス
グローバルクラスタ内のすべての cl_privnet IP アドレス
グローバルクラスタのそれぞれの論理ホスト名パブリック IP アドレス
グローバルクラスタのそれぞれの共有アドレスパブリック IP アドレス
エントリは次のようになります。
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
エントリを追加して、デフォルトのテンプレートを内部にします。
0.0.0.0:internal
CIPSO テンプレートについては、『Oracle Solaris Trusted Extensions 構成ガイド』の「解釈ドメインの構成」を参照してください。
phys-schost# svcadm enable -s svc:/system/labeld:default phys-schost# shutdown -g0 -y -i6
詳細は、『Oracle Solaris Trusted Extensions 構成ガイド』の「Trusted Extensions の有効化」を参照してください。
phys-schost# svcs labeld STATE STIME FMRI online 17:52:55 svc:/system/labeld:default
すべてのグローバルクラスタノードで SMF サービスが有効になっているときは、グローバルクラスタのノードごとにこの手順の残りを実行します。
LDAP サーバーは、大域ゾーンとゾーンクラスタのノードで使用されます。
phys-schost# svcadm enable rlogin
アカウント管理エントリを変更するには、次に示すように、Tab を追加して allow_remote または allow_unlabeled とそれぞれ入力します。
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
passwd および group ルックアップエントリで、ルックアップの順序の最初に files があることを確認します。
… passwd: files ldap group: files ldap …
hosts および netmasks ルックアップエントリで、ルックアップの順序の最初に cluster があることを確認します。
… hosts: cluster files ldap … netmasks: cluster files ldap …
『Oracle Solaris Trusted Extensions 構成ガイド』の「Trusted Extensions で大域ゾーンを LDAP クライアントにする」を参照してください。
『Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases』の「Creating Roles and Users in Trusted Extensions」で説明されているように、Solaris 管理コンソールのユーザー追加ウィザードを使用します。
次の手順
ゾーンクラスタを作成します。「ゾーンクラスタを作成する」に進みます。
非大域ゾーンのクラスタを作成するには、この手順を実行してください。
始める前に
グローバルクラスタを作成します。第 3 章グローバルクラスタの確立を参照してください。
ゾーンクラスタを作成するためのガイドラインと要件を確認します。「ゾーンクラスタ」を参照してください。
ゾーンクラスタで Trusted Extensions が使用される場合は、「ゾーンクラスタで Trusted Extensions を使用する準備をする」で説明されているように、Trusted Extensions が構成され、有効になっていることを確認してください。
次の情報を用意します。
ゾーンクラスタに割り当てる固有名。
注 - Trusted Extensions が有効になっているときにゾーンクラスタを構成するには、ゾーンクラスタがゾーンクラスタ自体の名前として使用する Trusted Extensions セキュリティーラベルの名前を使用する必要があります。 使用する Trusted Extensions セキュリティーラベルごとに個別のゾーンクラスタを作成します。
ゾーンクラスタのノードが使用するゾーンパス。詳細は、『Oracle Solaris のシステム管理 (Oracle Solaris コンテナ : 資源管理と Oracle Solaris ゾーン)』の「資源タイプとプロパティータイプ」で、zonepath プロパティーの説明を参照してください。
ゾーンクラスタノードを作成するグローバルクラスタ内の各ノードの名前。
各ゾーンクラスタノードに割り当てる、ゾーンの公開ホスト名またはホストエイリアス。
適用可能な場合、各ゾーンクラスタノードが使用する、パブリックネットワークの IP アドレス。
適用可能な場合、各ゾーンクラスタノードがパブリックネットワークに接続するために使用するパブリックネットワークアダプタの名前。
注 - 各ゾーンクラスタノードで IP アドレスを構成しない場合、次の 2 つのことが発生します。
その特定のゾーンクラスタでは、ゾーンクラスタで使用するための NAS デバイスを設定することができません。NAS デバイスと通信する際にはゾーンクラスタノードの IP アドレスを使用するため、IP アドレスを持たないクラスタは、NAS デバイスのフェンシングをサポートできません。
クラスタソフトウェアによって、NIC の論理ホスト IP アドレスが有効化されます。
注 - グローバルクラスタのノードから、次の手順のステップをすべて実行します。
いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
次の注意事項を守ってください。
Trusted Extensions が有効になっている場合、zoneclustername は、ゾーンクラスタに割り当てる Trusted Extensions セキュリティーラベルと同じ名前である必要があります。 これらのセキュリティーラベルは、グローバルクラスタの /etc/security/tsol/tnrhtp ファイルで構成されます。
デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。
各ゾーンクラスタノードの IP アドレスおよび NIC の指定は任意です。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/var/tsol/doors clzc:zoneclustername:fs> set special=/var/tsol/doors clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> add options ro clzc:zoneclustername:fs> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set name_service=LDAP clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix" clzc:zoneclustername:sysid> set proxy_password="proxypassword" clzc:zoneclustername:sysid> set profile=ldap-server clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress clzc:zoneclustername:sysid> end clzc:zoneclustername> commit clzc:zoneclustername> exit
指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"...
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"...
ゾーンクラスタの各ノードで次の手順を実行します。
phys-schost# cat /etc/cluster/nodeid N
ログイン前に、SMF サービスがインポートされ、すべてのサービスが実行中であることを確認します。
クラスタソフトウェアがゾーンクラスタを構成するとき、クラスタソフトウェアは自動的にこれらの IP アドレスを割り当てます。
ifconfig -a の出力で、ゾーンクラスタに属する clprivnet0 論理インターフェースを見つけてください。 inet の値は、このゾーンクラスタでのクラスタのプライベートインターコネクトの使用をサポートするために割り当てられた IP アドレスです。
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
プライベートインターコネクトのホスト名。clusternode N-priv で、N はグローバルクラスタノードの ID です。
172.16.0.22 clusternodeN-priv
ゾーンクラスタの作成時に、clzonecluster コマンドに指定されたそれぞれの net リソース。
『Oracle Solaris Trusted Extensions 管理の手順』の「遠隔ホストテンプレートを構築する」で説明されているように Solaris 管理コンソールのセキュリティーテンプレートウィザードを使用して、次の作業を実行します。
ゾーンクラスタコンポーネントで使用されている IP アドレスの新しいエントリを作成し、各エントリに CIPSO テンプレートを割り当てます。
ゾーンクラスタノードの /etc/inet/hosts ファイルに存在する次の IP アドレスごとに、エントリを追加します。
それぞれのゾーンクラスタノードのプライベート IP アドレス
ゾーンクラスタのすべての cl_privnet IP アドレス
ゾーンクラスタのそれぞれの論理ホスト名パブリック IP アドレス
ゾーンクラスタのそれぞれの共有アドレスパブリック IP アドレス
エントリは次のようになります。
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
エントリを追加して、デフォルトのテンプレートを内部にします。
0.0.0.0:internal
CIPSO テンプレートについては、『Oracle Solaris Trusted Extensions 構成ガイド』の「解釈ドメインの構成」を参照してください。
phys-schost# init -g0 -y -i6
ゾーンクラスタの各ノードで次のコマンドを実行します。
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
例 7-2 ゾーンクラスタ作成用の設定ファイル
次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。
次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。ゾーンクラスタは、ゾーンパスとパブリック IP アドレス 172.16.2.2 として /zones/sczone を使用します。ゾーンクラスタの第 1 のノードにホスト名 zc-host-1 が割り当てられ、ネットワークアドレス 172.16.0.1 および bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。このゾーンクラスタの第 2 のノードには、ホスト名 zc-host-2 が割り当てられ、ネットワークアドレス 172.16.0.2 および bge1 アダプタを使用します。
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
例 7-3 設定ファイルを使用してゾーンクラスタを作成する
次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 と zc-host-2 です。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running
次の手順
ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。
ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。
参照
ゾーンクラスタのパッチ処理を行うには、『Oracle Solaris Cluster システム管理』の第 11 章「Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ」の手順を参照してください。次の手順では、必要に応じてゾーンクラスタに固有の手順も記載されています。
この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。
ファイルシステムをゾーンクラスタに追加し、オンラインにしたら、ファイルシステムはそのゾーンクラスタ内からの使用を承認されます。使用するファイルシステムをマウントするには、SUNW.HAStoragePlus または SUNW.ScalMountPoint といったクラスタリソースを使用することでファイルシステムを構成します。
この節では、次の手順について説明します。
その他、ゾーンクラスタで高可用性の ZFS ストレージプールを構成するには、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。
この手順を実行して、ゾーンクラスタで使用できるよう、グローバルクラスタ上にローカルのファイルシステムを追加します。
注 - ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。
また、ゾーンクラスタで高可用性の ZFS ストレージプールを構成するには、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。
注 - .グローバルクラスタのノードから手続の全ステップを実行します。
ファイルシステムが共有ディスクに作成されていることを確認します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
ファイルシステムのマウントポイントを指定する
ディスクデバイスの名前を指定する
raw ディスクデバイスの名前を指定する
ファイルシステムの種類を指定する
注 - UFS および VxFS ファイルシステムのロギングを有効にします。
phys-schost# clzonecluster show -v zoneclustername
例 7-4 ローカルのファイルシステムをゾーンクラスタに追加する
この例では、 sczone ゾーンクラスタで使用できるようにローカルのファイルシステム /global/oracle/d1 を追加します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
次の手順
HAStoragePlus リソースを使用して、高可用性のファイルシステムを構成します。HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステムのマウントを管理します。 『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「Enabling Highly Available Local File Systems」を参照してください。
ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。
注 - ゾーンクラスタで高可用性の ZFS ストレージプールを構成するには、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。
注 - 大域ゾーンのノードからこの手順の全ステップを実行してください。
注 - ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。
ZFS プールを作成する手順については、『Oracle Solaris ZFS 管理ガイド』を参照してください。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
例 7-5 ゾーンクラスタに ZFS ストレージプールを追加する
次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
次の手順
HAStoragePlus リソースを使用して、高可用性の ZFS ストレージプールを構成します。 HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステム (プールにある) のマウントを管理します。 『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「Enabling Highly Available Local File Systems」を参照してください。
ゾーンクラスタで使用する Sun QFS 共有ファイルシステムを追加するには、この手順を実行してください。
注 - この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。
注 - グローバルクラスタの投票ノードからこの手順の全ステップを実行します。
Sun Cluster を使用して Sun QFS ファイルシステムを構成するの共有ファイルシステムの手順を実行します。
phys-schost# vi /etc/vfstab
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
手順 7 に進みます。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=lofs-mountpoint clzc:zoneclustername:fs> set special=QFS-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
例 7-6 ゾーンクラスタに QFS 共有ファイルシステムを直接マウントとして追加する
次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノードからは、ファイルシステムのマウントポイントは /db_qfs/Data1 です。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] …
例 7-7 ゾーンクラスタに QFS 共有ファイルシステムをループバックファイルシステムとして追加する
次に、ゾーンクラスタ sczone に追加されたマウントポイント /db_qfs/Data1 を使用した QFS 共有ファイルシステムの例を示します。 このファイルシステムは、マウントポイント /db_qfs/Data-cz1 でループバックマウント機構を使用してゾーンクラスタに対して使用できます。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data-cz1 clzc:sczone:fs> set special=/db_qfs/Data clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: lofs options: [] cluster-control: [true] …
ゾーンクラスタで使用するクラスタファイルシステムを追加するには、この手順を実行してください。
注 - グローバルクラスタの投票ノードからこの手順の全ステップを実行します。
phys-schost# vi /etc/vfstab … /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint clzc:zoneclustername:fs> set special=globalcluster-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
ゾーンクラスタでクラスタファイルシステムを使用できるように、LOFS のファイルシステムマウントポイントを指定します。
グローバルクラスタの元のクラスタファイルシステムのファイルシステムマウントポイントを指定します。
ループバックファイルシステムの作成については、『Solaris のシステム管理 (デバイスとファイルシステム)』の「LOFS ファイルシステムを作成およびマウントする方法」を参照してください。
phys-schost# clzonecluster show -v zoneclustername
例 7-8 クラスタファイルシステムをゾーンクラスタに追加する
次に、マウントポイント /global/apache を持つクラスタファイルシステムをゾーンクラスタに追加する例を示します。 このファイルシステムは、マウントポイント /zone/apache でループバックマウント機構を使用してゾーンクラスタに対して使用できます。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/zone/apache clzc:zoneclustername:fs> set special=/global/apache clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /zone/apache special: /global/apache raw: type: lofs options: [] cluster-control: true …
次の手順
HAStoragePlus リソースを使用して、ゾーンクラスタで使用できるようにクラスタファイルシステムを構成します。 HAStoragePlus リソースは、グローバルクラスタのファイルシステムをマウントしたあと、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストしているゾーンクラスタノードでループバックマウントを実行することによって管理します。 詳細は、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「Configuring an HAStoragePlus Resource for Cluster File Systems」を参照してください。
ゾーンクラスタで使用する Oracle ACFS ファイルシステムを追加するには、この手順を実行してください。
始める前に
Oracle ACFS ファイルシステムが作成され、ゾーンクラスタから使用できる状態になっていることを確認します。「Oracle ACFS ファイルシステムを作成する」を参照してください。
いずれかのノードの大域ゾーンから、次のステップを実行します。
# clzonecluster configure zonecluster clzc:zonecluster> add fs clzc:zonecluster:fs> set dir=mountpoint clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path clzc:zonecluster:fs> set type=acfs clzc:zonecluster:fs> end clzc:zonecluster> exit
# clzonecluster show zonecluster … Resource Name: fs dir: mountpoint special /dev/asm/volume-dev-path raw: type: acfs options: [] cluster-control: true …
この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。
デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。
ここでは、次の手順について説明します。
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
set match= エントリごとに個別の add device セッションを使用します。
注 - パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
メタデバイスのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername
例 7-9 ゾーンクラスタにメタデバイスを追加する
次は、ディスクセット oraset のメタデバイス d1 を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
set match= エントリごとに個別の add device セッションを使用します。
注 - パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
ディスクセットのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername
例 7-10 ゾーンクラスタにディスクセットを追加する
次に、ディスクセット oraset を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。
phys-schost# cldevice list -v
注 - パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
DID デバイスのフルデバイスパスを指定する
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername
例 7-11 ゾーンクラスタに DID デバイスを追加する
次に、DID デバイス d10 を sczone ゾーンクラスタに追加する例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
このようなデバイスは、clzonecluster コマンドによって制御されませんが、ノードのローカルデバイスとして扱われます。非大域ゾーンへの raw ディスクデバイスのエクスポートについては、『Oracle Solaris のシステム管理 (Oracle Solaris コンテナ : 資源管理と Oracle Solaris ゾーン)』の「zonecfg を使用して raw デバイスおよびブロックデバイスをインポートする方法」を参照してください。