この章では、次の項目について説明します。
この節では、データサービスをサポートするために、クラスタファイルシステムを作成する手順について説明します。
この手順は作成するクラスタファイルシステムごとに実行します。ローカルファイルシステムと違って、クラスタファイルシステムはグローバルクラスタ内のどのノードからでもアクセスできます。
クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「Enabling Highly Available Local File Systems」を参照してください。
クラスタファイルシステムは、ゾーンクラスタには追加できません。
次の作業を実行します。
Solaris OS、Sun Cluster フレームワーク、および その他の製品のソフトウェアパッケージを 「ソフトウェアをインストールします」に記載されたとおりにインストールしたことを確認します。
新しいクラスタまたはクラスタノードを、「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に記載されたとおりに確立する必要があります。
ボリュームマネージャーを使用している場合は、ボリューム管理ソフトウェアがインストールされて、設定されていることを確認します。ボリュームマネージャーのインストール手順については、「Solaris ボリュームマネージャー ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを実行します。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「Veritas Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
作成するクラスタファイルシステムごとに使用するマウントオプションを決めます。「クラスタファイルシステムのマウントオプションの選択」を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。
ファイルシステムを作成する。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
UFS ファイルシステムの場合は、newfs(1M) コマンドを使用します。
phys-schost# newfs raw-disk-device |
下の表に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solaris ボリュームマネージャー |
/dev/md/nfs/rdsk/d1 |
nfs ディスクセット内の raw ディスクデバイス d1 |
Veritas Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
SPARC: Veritas File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。
クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。
そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。
管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
phys-schost# mkdir -p /global/device-group/mountpoint/ |
デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。
クラスタファイルシステムのマウント先のディレクトリ名を指定します。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。
各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。
Solaris ボリュームマネージャー トランザクションボリュームには、logging マウントオプションは使用しないでください。トランザクションボリュームでは、独自のロギングが実行されます。
さらに、 Solaris ボリュームマネージャー トランザクションボリュームロギング は、Solaris 10 OS から削除されました。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動され、/global/oracle/ がマウントされたあとにのみ、phys-schost-2 を起動し、/global/oracle/logs/ をマウントできます。
クラスタ内の任意のノードで、構成の確認ユーティリティーを実行します。
phys-schost# sccheck |
設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。
詳細は、sccheck(1M)マニュアルページを参照してください。
クラスタファイルシステムをマウントします。
phys-schost# mount /global/device-group/mountpoint/ |
UFS の場合は、クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。
SPARC: VxFS の場合、ファイルシステムを正しく確実にマウントするために、device-group の現在のマスターからクラスタファイルシステムをマウントします。
さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。
VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) マニュアルページまたは mount(1M) マニュアルページを参照してください。
Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。
次に、Solaris ボリュームマネージャー ボリューム /dev/md/oracle/rdsk/d1 上に、UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
ノード上に非大域ゾーンを作成する場合は、「グローバルクラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC: Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のドキュメント、および『Sun Cluster Data Services Planning and Administration Guide for Solaris OS 』を参照してください。
この節では、グローバルクラスタノード上に非大域ゾーンを作成する手順について説明します。
グローバルクラスタに作成する非大域ゾーンごとに、この手順を実行してください。
ゾーンのインストールの詳細は、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones 』を参照してください。
ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。
ノードが非クラスタモードで起動される間にゾーンを作成する場合、クラスタソフトウェアは、ノードがクラスタに参加するときにゾーンを検出します。
ノードがクラスタモードで起動される間にゾーンを作成または削除する場合、クラスタソフトウェアはリソースグループのマスターとなるゾーンのリストを動的に変更します。
次の作業を実行します。
非大域ゾーンの設定を計画します。「グローバルクラスタ内の非大域ゾーンのガイドライン」で説明されている要件と制限事項を遵守してください。
次の情報を用意します。
作成する非大域ゾーンの合計数。
各ゾーンで使用する公開アダプタおよび公開 IP アドレス。
各ゾーンのゾーンパス。このパスは、クラスタファイルシステムや高可用性ローカルファイルシステムではなく、ローカルファイルシステムでなければなりません。
各ゾーンに表示される 1 つ以上のデバイス。
(省略可能) 各ゾーンに割り当てる名前。
ゾーンにプライベート IP アドレスを割り当てる場合、クラスタ IP アドレスの範囲が設定する追加のプライベート IP アドレスをサポートしていることを確認してください。cluster show-netprops コマンドを使用して、現在のプライベートネットワーク構成を表示します。
現在の IP アドレス範囲が設定する追加のプライベート IP アドレスをサポートするのに十分でない場合は、「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」の手順に従って、プライベート IP アドレスの範囲を再設定します。
詳細については、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「Zone Components」を参照してください。
非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。
大域ゾーンで作業してください。
Solaris 10 OS の場合は、各ノードでサービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
新しいゾーンを構成、インストール、および起動します。
グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。
Solaris のマニュアルの手順に従ってください。
ゾーンが ready 状態であることを確認します。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンで論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。
phys-schost# zonecfg -z sczone zonecfg:sczone> add fs zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm zonecfg:sczone:fs> set type=lofs zonecfg:sczone:fs> end zonecfg:sczone> exit |
(省略可能) 共有 IP ゾーンでは、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。
次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
プロパティーを指定します。
ゾーンプライベートホスト名、またはホスト別名を指定します。
ノードの名前。
グローバルクラスタの非投票ノードの名前。
初期内部ゾーン構成を実行します。
『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「Performing the Initial Internal Zone Configuration」の手順に従います。次のどちらかの方法を選択します。
ゾーンにログインします。
/etc/sysidcfg ファイルを使用します。
非投票ノードで、nsswitch.conf ファイルを変更します。
これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。
ゾーンにログインします。
phys-schost# zlogin -c zonename |
編集するため /etc/nsswitch.conf ファイルを開きます。
sczone# vi /etc/nsswitch.conf |
hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。
変更されたエントリは次のようになるはずです。
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。
ゾーンを終了します。
排他的 IP ゾーンを作成した場合は、そのゾーン上の /etc/hostname.interface ファイルごとに IPMP グループを構成します。
ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、「パブリックネットワーク」を参照してください。
ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。
非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map)」も参照してください。
非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。
この節では、非大域ゾーンのクラスタを設定する手順について説明します。
clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。
このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。
クラスタ範囲では、ゾーンクラスタ全体に影響します。
ノード範囲では、指定した 1 つのゾーンクラスタノードにのみ影響します。
リソース範囲では、リソース範囲をどの範囲から入力するかに応じて、特定のノード、またはゾーンクラスタ全体に影響します。ほとんどのリソースは、ノード範囲からのみ入力できます。範囲は、次のプロンプトで識別できます。
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting |
clzonecluster ユーティリティーを使用することで、Solaris ゾーンの任意のリソースパラメータや、ゾーンクラスタに固有のパラメータを指定できます。ゾーンクラスタで設定できるパラメータの詳細は、clzonecluster(1CL) マニュアルページを参照してください。Solaris ゾーンのリソースパラメータに関する追加情報は、zonecfg(1M) マニュアルページを参照してください。
この節では、非大域ゾーンのクラスタを設定する方法を説明します。
非大域ゾーンのクラスタを作成するには、この手順を実行してください。
グローバルクラスタを作成します。第 3 章グローバルクラスタの確立を参照してください。
ゾーンクラスタを作成するためのガイドラインと要件を確認します。「ゾーンクラスタ」を参照してください。
次の情報を用意します。
ゾーンクラスタに割り当てる固有名。
ゾーンクラスタのノードが使用するゾーンパス。詳細は、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones 』の「Resource and Property Types」で、zonepath プロパティーの説明を参照してください。
ゾーンクラスタノードを作成するグローバルクラスタ内の各ノードの名前。
各ゾーンクラスタノードに割り当てる、ゾーンの公開ホスト名またはホストエイリアス。
各ゾーンクラスタノードが使用する、パブリックネットワークの IP アドレス。
各ゾーンクラスタノードがパブリックネットワークに接続するために使用するパブリックネットワークアダプタの名前。
グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
グローバルクラスタのそのノードが、クラスタモードである必要があります。
いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online |
デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit |
(省略可能) ゾーンクラスタに 1 つ以上のノードを追加します。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> exit |
ゾーンクラスタ構成を検証します。
指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Running basenode2 zone-2 Offline Running |
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"... Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"... |
次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。
次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。このゾーンクラスタは、ゾーンパスとして /zones/sczone を使用します。このゾーンクラスタの最初のノードは、ホスト名 zc-host-1 を割り当てられ、パブリックネットワークアドレス 172.16.0.1 と bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。この第 2 のゾーンクラスタノードは、ホスト名 zc-host-2 を割り当てられ、パブリックネットワークアドレス 172.16.0.2 と bge1 アダプタを使用します。
create set zonepath=/zones/sczone add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 と zc-host-2 です。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running |
ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。
ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。
この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。
ファイルシステムをゾーンクラスタに追加し、オンラインにすると、そのファイルシステムは、そのゾーンクラスタ内部から見えるようになります。
clzonecluster コマンドを使用して、単一のグローバルクラスタノードにマウントされているローカルファイルシステムをゾーンクラスタに追加することはできません。その代わりに zonecfg コマンドを、スタンドアロンシステムの場合と同様の方法で使用してください。ローカルファイルシステムは、クラスタ制御の対象にはなりません。
クラスタファイルシステムは、ゾーンクラスタには追加できません。
この節では、次の手順について説明します。
グローバルクラスタ上で、ゾーンクラスタが使用する高可用性ローカルファイルシステムを追加するには、この手順を実行してください。
ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。
グローバルクラスタ上で、ゾーンクラスタで使用する高可用性ローカルファイルシステムを設定します。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタにマウントするファイルシステムの /etc/vfstab エントリを表示します。
phys-schost# vi /etc/vfstab |
ファイルシステムをゾーンクラスタ構成に追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> exit |
ファイルシステムのマウントポイントを指定する
ディスクデバイスの名前を指定する
raw ディスクデバイスの名前を指定する
ファイルシステムの種類を指定する
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
ここでは、sczone ゾーンクラスタで使用する高可用性ローカルファイルシステム /global/oracle/d1 を追加する例を示します。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [] … |
ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。
グローバルクラスタで ZFS ストレージプールを設定します。
ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。
ZFS プールの作成手順については、『Solaris ZFS Administration Guide 』を参照してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
プールをゾーンクラスタ構成に追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> exit |
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 … |
ゾーンクラスタで使用する Sun StorageTek QFS 共有ファイルシステムを追加するには、この手順を実行してください。
この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。
グローバルクラスタ上で、ゾーンクラスタで使用する QFS 共有ファイルシステムを構成します。
手順については、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』の「Tasks for Configuring the Sun StorEdge QFS Shared File System for Oracle Files」の説明に従ってください。
目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。
この手順の残りすべてのステップは、グローバルクラスタの 1 つの投票ノードから実行します。
ゾーンクラスタにマウントするファイルシステムの /etc/vfstab エントリを表示します。
このエントリの情報を使用して、ゾーンクラスタ構成に対してファイルシステムを指定します。
phys-schost# vi /etc/vfstab |
ゾーンクラスタ構成にファイルシステムを追加します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> exit |
ファイルシステムが追加されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノード側からは、ファイルシステムのマウントポイントは db_qfs/Data1 です。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] … |
この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。
デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。
ここでは、次の手順について説明します。
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加するメタデバイスのあるディスクセットを識別し、それがオンラインかどうかを判定します。
phys-schost# cldevicegroup status |
追加するディスクセットがオンラインでない場合は、オンラインにします。
phys-schost# cldevicegroup online diskset |
追加するディスクセットに対応するセット番号を判定します。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
ゾーンクラスタで使用するメタデバイスを追加します。
set match= エントリごとに個別の add device セッションを使用します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
メタデバイスのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次は、ディスクセット oraset のメタデバイス d1 を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加するディスクセットを識別し、それがオンラインかどうかを判定します。
phys-schost# cldevicegroup status |
追加するディスクセットがオンラインでない場合は、オンラインにします。
phys-schost# cldevicegroup online diskset |
追加するディスクセットに対応するセット番号を判定します。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
ゾーンクラスタで使用するディスクセットを追加します。
set match= エントリごとに個別の add device セッションを使用します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
ディスクセットのフル論理デバイスパスを指定する
ディスクセット番号のフル物理デバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次に、ディスクセット oraset を sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。
目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。
この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。
ゾーンクラスタに追加する DID デバイスを識別します。
追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。
phys-schost# cldevice list -v |
ゾーンクラスタで使用する DID デバイスを追加します。
パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
DID デバイスのフルデバイスパスを指定する
ゾーンクラスタを再起動します。
変更は、ゾーンクラスタの再起動後に有効になります。
phys-schost# clzonecluster reboot zoneclustername |
次に、DID デバイス d10 を sczone ゾーンクラスタに追加する例を示します。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
ゾーンクラスタノードに raw ディスクデバイス (cNtXdYsZ) をエクスポートするには、非大域ゾーンのその他のブランドに通常エクスポートする場合と同様に、zonecfg コマンドを使用します。
このようなデバイスは、clzonecluster コマンドによって制御されませんが、ノードのローカルデバイスとして扱われます。非大域ゾーンへの raw ディスクデバイスのエクスポートについては、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「How to Import Raw and Block Devices by Using zonecfg」を参照してください。