この章では、次の項目について説明します。
このセクションでは、次に示すグローバルクラスタノード上でのグローバル以外のゾーンの作成手順について説明します。
グローバルクラスタに作成する非大域ゾーンごとに、この手順を実行してください。
ゾーンのインストールの詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』を参照してください。
ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。
ノードが非クラスタモードで起動される間にゾーンを作成する場合、クラスタソフトウェアは、ノードがクラスタに参加するときにゾーンを検出します。
ノードがクラスタモードで起動される間にゾーンを作成または削除する場合、クラスタソフトウェアはリソースグループのマスターとなるゾーンのリストを動的に変更します。
次の作業を実行します。
非大域ゾーンの設定を計画します。「グローバルクラスタ内の非大域ゾーンのガイドライン」で説明されている要件と制限事項を遵守してください。
次の情報を用意します。
作成する非大域ゾーンの合計数。
各ゾーンで使用する公開アダプタおよび公開 IP アドレス。
各ゾーンのゾーンパス。このパスは、クラスタファイルシステムや高可用性ローカルファイルシステムではなく、ローカルファイルシステムでなければなりません。
各ゾーンに表示される 1 つ以上のデバイス。
(必要な場合) 各ゾーンに割り当てる名前。
ゾーンにプライベート IP アドレスを割り当てる場合、クラスタ IP アドレスの範囲が設定する追加のプライベート IP アドレスをサポートしていることを確認してください。cluster show-netprops コマンドを使用して、現在のプライベートネットワーク構成を表示します。
現在の IP アドレス範囲が設定する追加のプライベート IP アドレスをサポートするのに十分でない場合は、「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」の手順に従って、プライベート IP アドレスの範囲を再設定します。
詳細については、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「ゾーンの構成要素」を参照してください。
非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。
大域ゾーンで作業してください。
Solaris 10 OS の場合、各ノードでサービス管理機能 (Service Management Facility、SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
新しいゾーンを構成、インストール、および起動します。
グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。
Solaris のマニュアルの手順に従ってください。
ゾーンが ready 状態であることを確認します。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンで論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。
phys-schost# zonecfg -z sczone zonecfg:sczone> add fs zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm zonecfg:sczone:fs> set type=lofs zonecfg:sczone:fs> end zonecfg:sczone> exit |
(省略可能) 共有 IP ゾーンでは、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。
次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
プロパティーを指定します。
ゾーンプライベートホスト名、またはホスト別名を指定します。
ノードの名前。
グローバルクラスタの非投票ノードの名前。
初期内部ゾーン構成を実行します。
『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。
ゾーンにログインします。
/etc/sysidcfg ファイルを使用します。
非投票ノードで、nsswitch.conf ファイルを変更します。
これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。
ゾーンにログインします。
phys-schost# zlogin -c zonename |
編集するため /etc/nsswitch.conf ファイルを開きます。
sczone# vi /etc/nsswitch.conf |
hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。
変更されたエントリは次のようになるはずです。
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。
ゾーンを終了します。
排他的 IP ゾーンを作成した場合は、そのゾーン上の /etc/hostname.interface ファイルごとに IPMP グループを構成します。
ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、「パブリックネットワーク」を参照してください。
ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。
非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「ゾーンがインストールされている Solaris システムでのパッケージとパッチの追加および削除 (作業マップ)」も参照してください。
非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。
この手順を使用してクラスタファイルシステムをクラスタノード上で構成される native ブランドグローバル以外のゾーンで使用できるようにします。
グローバル以外のゾーンの native ブランドのみでこの手順を使用します。 solaris8 ブランドまたはゾーンクラスタで使用される クラスタ ブランドといった他のグローバル以外のゾーンのブランドでこの作業を実行できません。
グローバルクラスタの 1 つのノード上で、スーパーユーザーになるか、 solaris.cluster.modify RBAC 承認を提供するロールを想定します。
native ブランドグローバル以外のゾーンのノードリストを使用して、リソースグループを作成します。
次のコマンドを使用して、ファイルオーバーリソースグループを作成します。
phys-schost# clresourcegroup create -n node:zone[,…] resource-group |
リソースグループノードリストにグローバル以外のゾーンの名前を指定します。
作成するリソースグループの名前。
次のコマンドを使用してスケーラブルなリソースグループを作成します。
phys-schost# clresourcegroup create -S -n node:zone[,…] resource-group |
リソースグループがスケーラブルであることを指定します。
HAStoragePlus リソースタイプを登録します。
phys-schost# clresourcetype register SUNW.HAStoragePlus |
ノードリストのグローバル以外のゾーンがある各グローバルクラスタノード上で、クラスタファイルシステムエントリを /etc/vfstab ファイルに追加します。
クラスタファイルシステムの /etc/vfstab ファイルのエントリにマウントオプションの グローバル キーワードを含める必要があります。.
詳細については、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「Sample Entries in /etc/vfstab for Cluster File Systems」 を参照してください。
HAStoragePlus リソースを作成し、ファイルシステムマウントポイントを定義します。
phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \ -p FileSystemMountPoints="mount-point-list" hasp-resource |
新しいリソースが追加されるリソースグループの名前を指定します。
リソースに 1 つ以上のファイルシステムマウントポイントを指定します。
作成する HAStoragePlus リソース名
リソースは有効状態で作成されます。
resource-group にリソースを追加し、hasp-resource上にリソースの依存関係を設定します。.
リソースグループに追加するリソースが複数ある場合、リソースごとに別のコマンドを使用してください。
phys-schost# clresource create -g resource-group -t resource-type \ -p Network_resources_used=hasp-resource resource |
リソースを作成するリソースの種類を指定します。
リソースが HAStoragePlus リソース、 hasp-resourceに対して依存関係を持つことを指定します。.
作成するリソース名。
オンラインにし、HAStoragePlus リソースを含めるリソースグループを管理状態にします。.
phys-schost# clresourcegroup online -M resource-group |
リソースグループが管理されていることを指定します。
次の例では、HA-Apache データサービスを管理するフェイルオーバーリソースグループ cfs-rg を作成します。リソースグループノードリストには、2 つのグローバル以外のゾーン、phys-schost-1 上の sczone1 および phys-schost-2 上の sczone1 が含まれます。 リソースグループには、HAStoragePlus リソース、hasp-rsおよび data-service リソース、apache-rsが含まれます。 ファイルシステムマウントポイントは、/global/local-fs/apacheです。
phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg phys-schost-1# clresourcetype register SUNW.HAStoragePlus Add the cluster file system entry to the /etc/vfstab file on phys-schost-1 phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global Add the cluster file system entry to the /etc/vfstab file on phys-schost-2 phys-schost-2# vi /etc/vfstab … phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \ -p FileSystemMountPoints="/global/local-fs/apache" hasp-rs phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \ -p Network_resources_used=hasp-rs apache-rs phys-schost-1# clresourcegroup online -M cfs-rg |
|
この節では、非大域ゾーンのクラスタを設定する手順について説明します。
clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。
このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。
クラスタ範囲では、ゾーンクラスタ全体に影響します。
ノード範囲では、指定した 1 つのゾーンクラスタノードにのみ影響します。
リソース範囲では、リソース範囲をどの範囲から入力するかに応じて、特定のノード、またはゾーンクラスタ全体に影響します。ほとんどのリソースは、ノード範囲からのみ入力できます。範囲は、次のプロンプトで識別できます。
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting |
clzonecluster ユーティリティーを使用することで、Solaris ゾーンの任意のリソースパラメータや、ゾーンクラスタに固有のパラメータを指定できます。ゾーンクラスタで設定できるパラメータの詳細は、clzonecluster(1CL) マニュアルページを参照してください。Solaris ゾーンのリソースパラメータに関する追加情報は、zonecfg(1M) マニュアルページを参照してください。
この節では、非大域ゾーンのクラスタを設定する方法を説明します。
非大域ゾーンのクラスタを作成するには、この手順を実行してください。
グローバルクラスタを作成します。第 3 章グローバルクラスタの確立を参照してください。
ゾーンクラスタを作成するためのガイドラインと要件を確認します。「ゾーンクラスタ」を参照してください。
次の情報を用意します。
ゾーンクラスタに割り当てる固有名。
ゾーンクラスタのノードが使用するゾーンパス。詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「資源タイプとプロパティータイプ」で、zonepath プロパティーの説明を参照してください。
ゾーンクラスタノードを作成するグローバルクラスタ内の各ノードの名前。
各ゾーンクラスタノードに割り当てる、ゾーンの公開ホスト名またはホストエイリアス。
各ゾーンクラスタノードが使用する、パブリックネットワークの IP アドレス。
各ゾーンクラスタノードがパブリックネットワークに接続するために使用するパブリックネットワークアダプタの名前。
グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
グローバルクラスタのそのノードが、クラスタモードである必要があります。
いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online |
デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit |
(省略可能) ゾーンクラスタに 1 つ以上のノードを追加します。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> commit clzc:zoneclustername> exit |
ゾーンクラスタ構成を検証します。
指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured |
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"... Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"... |
次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。
次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。ゾーンクラスタは、ゾーンパスとパブリック IP アドレス 172.16.2.2 として /zones/sczone を使用します。ゾーンクラスタの第 1 のノードにホスト名 zc-host-1 が割り当てられ、ネットワークアドレス 172.16.0.1 および bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。このゾーンクラスタの第 2 のノードには、ホスト名 zc-host-2 が割り当てられ、ネットワークアドレス 172.16.0.2 および bge1 アダプタを使用します。
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 と zc-host-2 です。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running |
ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。
ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。
この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。
ファイルシステムをゾーンクラスタに追加し、オンラインにしたら、ファイルシステムはそのゾーンクラスタ内からの使用を承認されます。使用するファイルシステムをマウントするには、SUNW.HAStoragePlus または SUNW.ScalMountPoint といったクラスタリソースを使用することでファイルシステムを構成します。
clzonecluster コマンドを使用して、単一のグローバルクラスタノードにマウントされているローカルファイルシステムをゾーンクラスタに追加することはできません。その代わりに zonecfg コマンドを、スタンドアロンシステムの場合と同様の方法で使用してください。ローカルファイルシステムは、クラスタ制御の対象にはなりません。
クラスタファイルシステムは、ゾーンクラスタには追加できません。
この節では、次の手順について説明します。
その他、ゾーンクラスタで高可用性のZFS ストレージプールを構成するには、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。
この手順を実行して、ゾーンクラスタで使用できるよう、グローバルクラスタ上にローカルのファイルシステムを追加します。
ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。
その他、ゾーンクラスタで高可用性のZFS ストレージプールを構成するには、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
.グローバルクラスタのノードから手続の全ステップを実行します。
グローバルクラスタ上で、ゾーンクラスタで使用するファイルシステムを作成します。
ファイルシステムが共有ディスクに作成されていることを確認します。
ゾーンクラスタノードをホストするグローバルクラスタの各ノード上で、 ゾーンクラスタにマウントするファイルシステムの /etc/vfstab ファイルにエントリを追加します。
phys-schost# vi /etc/vfstab |
ファイルシステムをゾーンクラスタ構成に追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
ファイルシステムのマウントポイントを指定する
ディスクデバイスの名前を指定する
raw ディスクデバイスの名前を指定する
ファイルシステムの種類を指定する
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
この例では、 sczone ゾーンクラスタで使用できるようにローカルのファイルシステム /global/oracle/d1 を追加します。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [] … |
HAStoragePlus リソースを使用して、高可用性のファイルシステムを構成します。HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステムのマウントを管理します。 『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「Enabling Highly Available Local File Systems」を参照してください。
ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。
ゾーンクラスタで高可用性のZFS ストレージプールを構成するには、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
グローバルゾーンのノードからこの手順の全ステップを実行してください。
グローバルクラスタ上で、ZFS ストレージプールを作成します。
ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。
ZFS プールを作成する手順については、『Solaris ZFS 管理ガイド』 を参照してください。
プールをゾーンクラスタ構成に追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 … |
HAStoragePlus リソースを使用して、高可用性の ZFS ストレージプールを構成します。 HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステム (プールにある) のマウントを管理します。 『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「Enabling Highly Available Local File Systems」を参照してください。
ゾーンクラスタで使用する Sun QFS 共有ファイルシステムを追加するには、この手順を実行してください。
この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。
目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。
グローバルクラスタの投票ノードからこの手順の全ステップを実行します。
グローバルクラスタ上で、ゾーンクラスタで使用する QFS 共有ファイルシステムを構成します。
Sun Cluster を使用して Sun QFS ファイルシステムを構成するの共有ファイルシステムの手順を実行します。
ゾーンクラスタノードをホストするグローバルクラスタの各ノード上で、ゾーンクラスタにマウントするファイルシステムの /etc/vfstab ファイルにエントリを追加してください。
phys-schost# vi /etc/vfstab |
ゾーンクラスタ構成にファイルシステムを追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノードからは、ファイルシステムのマウントポイントは /db_qfs/Data1 です。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] … |
この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。
デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。
ここでは、次の手順について説明します。
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加するメタデバイスのあるディスクセットを識別し、それがオンラインかどうかを判定します。
phys-schost# cldevicegroup status |
追加するディスクセットがオンラインでない場合は、オンラインにします。
phys-schost# cldevicegroup online diskset |
追加するディスクセットに対応するセット番号を判定します。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
ゾーンクラスタで使用するメタデバイスを追加します。
set match= エントリごとに個別の add device セッションを使用します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
メタデバイスのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次は、ディスクセット oraset のメタデバイス d1 を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加するディスクセットを識別し、それがオンラインかどうかを判定します。
phys-schost# cldevicegroup status |
追加するディスクセットがオンラインでない場合は、オンラインにします。
phys-schost# cldevicegroup online diskset |
追加するディスクセットに対応するセット番号を判定します。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
ゾーンクラスタで使用するディスクセットを追加します。
set match= エントリごとに個別の add device セッションを使用します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
ディスクセットのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次に、ディスクセット oraset を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加する DID デバイスを識別します。
追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。
phys-schost# cldevice list -v |
ゾーンクラスタで使用する DID デバイスを追加します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
DID デバイスのフルデバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次に、DID デバイス d10 を sczone ゾーンクラスタに追加する例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタノードに raw ディスクデバイス (cNtXdYsZ) をエクスポートするには、非大域ゾーンのその他のブランドに通常エクスポートする場合と同様に、zonecfg コマンドを使用します。
このようなデバイスは、clzonecluster コマンドによって制御されませんが、ノードのローカルデバイスとして扱われます。非大域ゾーンへの raw ディスクデバイスのエクスポートについては、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「zonecfg を使用して raw デバイスおよびブロックデバイスをインポートする方法」を参照してください。