この章では、NFSアプリケーション向けにディスクデバイスグループとリソースグループをどのように構成するかを説明します。 構成例のために作成されたグループとリソースの名前を次の表に示します。
表 6–2 構成例内のグループとリソースのまとめ
グループまたはリソース |
「名前」 |
説明 |
---|---|---|
ディスクデバイスグループ |
devicegroup |
ディスクデバイスグループ |
複製リソースグループとリソース |
devicegroup-stor-rg |
複製リソースグループ |
lhost-reprg-prim, lhost-reprg-sec |
主クラスタと二次クラスタの複製リソースグループの論理ホスト名 |
|
devicegroup-stor |
複製リソースグループの HAStoragePlus リソース |
|
アプリケーションリソースグループとリソース |
nfs-rg |
アプリケーションリソースグループ |
lhost-nfsrg-prim, lhost-nfsrg-sec |
主クラスタと二次クラスタのアプリケーションリソースグループの論理ホスト名 |
|
nfs-dg-rs |
アプリケーションの HAStoragePlus リソース |
|
nfs-rs |
NFS リソース |
devicegroup-stor-rg 以外のグループとリソースの名前は一例で、必要に応じて変更可能です。 複製リソースグループは、devicegroup-stor-rg というフォーマットでなければなりません。
この節では、主クラスタと二次クラスタでどのようにディスクデバイスグループを構成するかについて説明します。 この構成例では、VxVM ソフトウェアを使用します。 Solstice DiskSuite/Solaris Volume Manager ソフトウェアについては、第 3 章「Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成」を参照してください。
ディスクデバイスグループで作成済みのボリュームを下図に示します。
この節で定義されたボリュームに、シリンダ 0 などのディスクラベルのプライベート領域を含めてはなりません。VxVM ソフトウェアは、この制限を自動管理します。
ボリューム 1 からボリューム 4 の 4 つのボリュームを含むディスクグループを作成します。
VxVM ソフトウェアを使用したディスクグループの構成については、第 4 章「SPARC: VERITAS Volume Manager のインストールと構成」を参照してください。
スーパーユーザーとして nodeA にアクセスします。
nodeA は、主クラスタの最初のノードです。 どのノードが nodeA なのかは、図 6–7 で確認してください。
ディスクグループを構成して、ディスクデバイスグループを作成します。
nodeA# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \ ,nodelist=nodeA:nodeB |
ディスクデバイスグループは、devicegroup と呼ばれます。
ディスクデバイスグループを起動します。
nodeA# /usr/cluster/bin/scswitch -z -D devicegroup -h nodeA |
ディスクデバイスグループを Sun Cluster ソフトウェアと同期させます。
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
ディスクデバイスグループのファイルシステムを作成します。
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol03 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol04 < /dev/null |
nodeA と nodeB 上の /.rhosts ファイルに次のエンティティを追加して、主クラスタと二次クラスタのノード間のリモートアクセスを有効にします。
nodeC + + root |
主クラスタでディスクデバイスグループを構成するの手順のうち以下を置き換えて実行します。
この節では、ファイルシステムをどのように NFSアプリケーション向けに構成するかを説明します。
nodeA と nodeB で、NFS ファイルシステム向けのマウントポイントディレクトリを作成します。
以下に例を示します。
nodeA# mkdir /global/mountpoint |
nodeA と nodeB で、マウントポイントに自動でマウントされるようにマスターボリュームを構成します。
nodeA と nodeB の /etc/vfstab ファイルに以下のテキストを追加するか、既存のテキストと置き換えます。 テキストは 1 行で記述してください。
/dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \ /global/mountpoint ufs 3 no global,logging |
ディスクデバイスグループで使用されるボリューム名とボリューム番号は、図 6–8 で確認してください。
nodeA で、Sun StorEdge Availability Suite 3.1 ソフトウェアが使用するファイルのシステム情報向けのボリュームを作成します。
nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1 |
ボリューム 5 には、Sun StorEdge Availability Suite 3.1 ソフトウェアが使用するファイルのシステム情報が含まれています。
nodeA で、デバイスグループと Sun Cluster ソフトウェアを再同期化します。
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
nodeA で、ボリューム 5 向けのファイルシステムを作成します。
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05 |
nodeA と nodeB で、ボリューム 5 のマウントポイントを作成します。
以下に例を示します。
nodeA# mkdir /global/etc |
nodeA と nodeB で、マウントポイントに自動でマウントされるようにボリューム 5 を構成します。
nodeA と nodeB の /etc/vfstab ファイルに以下のテキストを追加するか、既存のテキストと置き換えます。 テキストは 1 行で記述してください。
/dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \ /global/etc ufs 3 yes global,logging |
nodeA にボリューム 5 をマウントします。
nodeA# mount /global/etc |
ボリューム 5 がリモートシステムからアクセスできるようにします。
主クラスタのファイルシステムを NFS アプリケーション向けに構成するの手順のうち以下を置き換えて繰り返します。
nodeA を nodeC に置き換える
nodeB は使用しない
この節では、主クラスタと二次クラスタ上で複製リソースグループがどのように作成されるかを説明します。
スーパーユーザーとして nodeA にアクセスします。
SUNW.HAStoragePlus というリソースタイプを登録します。
nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus |
ディスクデバイスグループの複製リソースグループを作成します。
nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB |
ディスクデバイスグループの名前
複製リソースグループの名前
複製リソースグループを制御できるクラスタノードを指定します。
SUNW.HAStoragePlus リソースを複製リソースグループに追加します。
nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \ -g devicegroup-stor-rg -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=devicegroup \ -x AffinityOn=True |
複製リソースグループの HAStoragePlus リソース
Sun StorEdge Availability Suite 3.1 ソフトウェアが依存する拡張プロパティを指定します。
SUNW.HAStoragePlus リソースが、-x GlobalDevicePaths= で定義された広域デバイスおよびクラスタファイルシステムに対して、アフィニティースイッチオーバーを実行することを指定します。 したがって、複製リソースグループがフェイルオーバーまたはスイッチオーバーすると、関連デバイスグループがスイッチオーバーします。
これらの拡張プロパティについては、SUNW.HAStoragePlus(5) のマニュアルページを参照してください。
論理ホスト名リソースを複製リソースグループに追加します。
nodeA# /usr/cluster/bin/scrgadm -a -L \ -j lhost-reprg-prim -g devicegroup-stor-rg -l lhost-reprg-prim |
ここで lhost-reprg-prim は、主クラスタ上の複製リソースグループの論理ホスト名です。
リソースを有効にし、リソースグループを管理し、リソースグループをオンラインにします。
nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA |
リソースグループがオンラインであることを確認します。
nodeA# /usr/cluster/bin/scstat -g |
リソースグループの状態フィールドを調べ、複製リソースグループが nodeA と nodeB でオンラインとなっていることを確認します。
主クラスタで複製リソースグループを作成するの手順のうち以下を置き換えて繰り返します。
nodeA を nodeC に置き換える
nodeB は使用しない
lhost-reprg-prim への参照を lhost-reprg-sec と置き換える
この節では、アプリケーションリソースグループが NFS アプリケーション向けにどのように作成されているかを説明します。 この節の手順はアプリケーション固有のものです。 他のタイプのアプリケーションに対しては使用できません。
スーパーユーザーとして nodeA にアクセスします。
SUNW.nfs をリソースタイプとして登録します。
nodeA# scrgadm -a -t SUNW.nfs |
SUNW.HAStoragePlus をリソースタイプとして登録していない場合は、登録します。
nodeA# scrgadm -a -t SUNW.HAStoragePlus |
devicegroup のアプリケーションリソースグループを作成します。
nodeA# scrgadm -a -g nfs-rg \ -y Pathprefix=/global/etc \ -y Auto_start_on_new_cluster=False \ -y RG_dependencies=devicegroup-stor-rg |
アプリケーションリソースグループの名前です。
グループのリソースが管理ファイルを書き込むディレクトリを指定します。
アプリケーションリソースグループが自動的に起動しないように指定します。
アプリケーションリソースグループが依存するリソースグループを指定します。 この例では、アプリケーションリソースグループは複製リソースグループに依存しています。
アプリケーションリソースグループが新しい主ノードにスイッチオーバーすると、複製リソースグループが自動的にスイッチオーバーします。 ただし、複製リソースグループが新しい主ノードにスイッチオーバーした場合は、アプリケーションリソースグループを手動でスイッチオーバーする必要があります。
SUNW.HAStoragePlus リソースをアプリケーションリソースグループに追加します。
nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \ -t SUNW.HAStoragePlus \ -x FileSystemMountPoints=/global/mountpoint \ -x AffinityOn=True |
NFS アプリケーション向けの HAStoragePlus リソースの名前かどうかを確認します。
ファイルシステムのマウントポイントがグローバルであることを指定します。
リソースのタイプに SUNW.HAStoragePlus を指定します。
アプリケーションリソースが -x GlobalDevicePaths= で定義された広域デバイスとクラスタファイルシステム向けにアフィニティスイッチオーバーを実行するように指定します。 したがって、アプリケーションリソースグループがフェイルオーバーまたはスイッチオーバーすると、関連デバイスグループがスイッチオーバーします。
これらの拡張プロパティについては、SUNW.HAStoragePlus(5) のマニュアルページを参照してください。
論理ホスト名リソースをアプリケーションリソースグループに追加します。
nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \ -l lhost-nfsrg-prim |
ここで lhost-nfsrg-prim は、主クラスタ上のアプリケーションリソースグループの論理ホスト名です。
リソースを有効にし、アプリケーションリソースグループを管理し、アプリケーションリソースグループをオンラインにします。
アプリケーションリソースグループがオンラインであることを確認します。
nodeA# /usr/cluster/bin/scstat -g |
アプリケーションリソースグループの状態フィールドを調べ、複製リソースグループが nodeA と nodeB でオンラインとなっているかどうかを調べます。
主クラスタでアプリケーションリソースグループを作成するの手順 1 から手順 6 に説明されているうち、以下を置き換えて、アプリケーショングループリソースを作成します。
nodeA を nodeC に置き換える
nodeB への参照を無視する
lhost-nfsrg-prim への参照を lhost-nfsrg-sec と置き換える
アプリケーションリソースグループが nodeC でオンラインになっていないことを確認します。
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
Auto_start_on_new_cluster=False によって、リソースグループは再起動後もオフラインのままになります。
広域ボリュームが主クラスタにマウントされている場合は、二次クラスタの広域ボリュームのマウントを解除します。
nodeC# umount /global/mountpoint |
ボリュームが二次クラスタにマウントされていると、同期が失敗します。