Sun Cluster ソフトウェアのインストール (Solaris OS 版)

デバイスグループとリソースグループの構成例

この章では、NFSアプリケーション向けにディスクデバイスグループとリソースグループをどのように構成するかを説明します。 構成例のために作成されたグループとリソースの名前を次の表に示します。

表 6–2 構成例内のグループとリソースのまとめ

グループまたはリソース 

「名前」 

説明 

ディスクデバイスグループ 

devicegroup

ディスクデバイスグループ 

複製リソースグループとリソース 

devicegroup-stor-rg

複製リソースグループ 

lhost-reprg-prim, lhost-reprg-sec

主クラスタと二次クラスタの複製リソースグループの論理ホスト名 

devicegroup-stor

複製リソースグループの HAStoragePlus リソース  

アプリケーションリソースグループとリソース 

nfs-rg

アプリケーションリソースグループ 

lhost-nfsrg-prim, lhost-nfsrg-sec

主クラスタと二次クラスタのアプリケーションリソースグループの論理ホスト名 

nfs-dg-rs

アプリケーションの HAStoragePlus リソース 

nfs-rs

NFS リソース 

devicegroup-stor-rg 以外のグループとリソースの名前は一例で、必要に応じて変更可能です。 複製リソースグループは、devicegroup-stor-rg というフォーマットでなければなりません。

ディスクデバイスグループの構成

この節では、主クラスタと二次クラスタでどのようにディスクデバイスグループを構成するかについて説明します。 この構成例では、VxVM ソフトウェアを使用します。 Solstice DiskSuite/Solaris Volume Manager ソフトウェアについては、第 3 章「Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成」を参照してください。

ディスクデバイスグループで作成済みのボリュームを下図に示します。

図 6–8 ディスクデバイスグループのボリューム

ディスクデバイスグループで作成されたボリュームを示す図


注 –

この節で定義されたボリュームに、シリンダ 0 などのディスクラベルのプライベート領域を含めてはなりません。VxVM ソフトウェアは、この制限を自動管理します。


主クラスタでディスクデバイスグループを構成する
  1. ボリューム 1 からボリューム 4 の 4 つのボリュームを含むディスクグループを作成します。

    VxVM ソフトウェアを使用したディスクグループの構成については、第 4 章「SPARC: VERITAS Volume Manager のインストールと構成」を参照してください。

  2. スーパーユーザーとして nodeA にアクセスします。

    nodeA は、主クラスタの最初のノードです。 どのノードが nodeA なのかは、図 6–7 で確認してください。

  3. ディスクグループを構成して、ディスクデバイスグループを作成します。


    nodeA# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \
    ,nodelist=nodeA:nodeB
    

    ディスクデバイスグループは、devicegroup と呼ばれます。

  4. ディスクデバイスグループを起動します。


    nodeA# /usr/cluster/bin/scswitch -z -D devicegroup -h nodeA
    
  5. ディスクデバイスグループを Sun Cluster ソフトウェアと同期させます。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  6. ディスクデバイスグループのファイルシステムを作成します。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol03 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol04 < /dev/null
    
  7. nodeAnodeB 上の /.rhosts ファイルに次のエンティティを追加して、主クラスタと二次クラスタのノード間のリモートアクセスを有効にします。


    nodeC +
    + root
二次クラスタでディスクデバイスグループを構成する
  1. 主クラスタでディスクデバイスグループを構成するの手順のうち以下を置き換えて実行します。

    • nodeAnodeC に置き換える

    • nodeB は使用しない

    • 手順 3 で、ノードリストに nodeC だけを入れる。 以下に例を示します。


      nodeC# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \
      ,nodelist=nodeC
      
    • 手順 7で、nodeC/.rhosts ファイルだけに以下のエンティティを追加する


      nodeA +
      nodeB +
      + root

NFSアプリケーション向けのファイルシステムの構成

この節では、ファイルシステムをどのように NFSアプリケーション向けに構成するかを説明します。

主クラスタのファイルシステムを NFS アプリケーション向けに構成する
  1. nodeAnodeB で、NFS ファイルシステム向けのマウントポイントディレクトリを作成します。

    以下に例を示します。


    nodeA# mkdir /global/mountpoint
    
  2. nodeAnodeB で、マウントポイントに自動でマウントされるようにマスターボリュームを構成します。

    nodeAnodeB/etc/vfstab ファイルに以下のテキストを追加するか、既存のテキストと置き換えます。 テキストは 1 行で記述してください。


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging

    ディスクデバイスグループで使用されるボリューム名とボリューム番号は、図 6–8 で確認してください。

  3. nodeA で、Sun StorEdge Availability Suite 3.1 ソフトウェアが使用するファイルのシステム情報向けのボリュームを作成します。


    nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    ボリューム 5 には、Sun StorEdge Availability Suite 3.1 ソフトウェアが使用するファイルのシステム情報が含まれています。

  4. nodeA で、デバイスグループと Sun Cluster ソフトウェアを再同期化します。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. nodeA で、ボリューム 5 向けのファイルシステムを作成します。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. nodeAnodeB で、ボリューム 5 のマウントポイントを作成します。

    以下に例を示します。


    nodeA# mkdir /global/etc
    
  7. nodeAnodeB で、マウントポイントに自動でマウントされるようにボリューム 5 を構成します。

    nodeAnodeB/etc/vfstab ファイルに以下のテキストを追加するか、既存のテキストと置き換えます。 テキストは 1 行で記述してください。


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. nodeA にボリューム 5 をマウントします。


    nodeA# mount /global/etc
    
  9. ボリューム 5 がリモートシステムからアクセスできるようにします。

    1. nodeA/global/etc/SUNW.nfs というディレクトリを作成します。


      nodeA# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeA/global/etc/SUNW.nfs/dfstab.nfs-rs ファイルを作成します。


      nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. nodeA/global/etc/SUNW.nfs/dfstab.nfs-rs ファイルに次の行を追加します。


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
二次クラスタのファイルシステムを NFS アプリケーション向けに構成する

    主クラスタのファイルシステムを NFS アプリケーション向けに構成するの手順のうち以下を置き換えて繰り返します。

    • nodeAnodeC に置き換える

    • nodeB は使用しない

複製リソースグループの作成

この節では、主クラスタと二次クラスタ上で複製リソースグループがどのように作成されるかを説明します。

主クラスタで複製リソースグループを作成する
  1. スーパーユーザーとして nodeA にアクセスします。

  2. SUNW.HAStoragePlus というリソースタイプを登録します。


    nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. ディスクデバイスグループの複製リソースグループを作成します。


    nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB
    
    devicegroup

    ディスクデバイスグループの名前

    devicegroup-stor-rg

    複製リソースグループの名前

    -h nodeA, nodeB

    複製リソースグループを制御できるクラスタノードを指定します。

  4. SUNW.HAStoragePlus リソースを複製リソースグループに追加します。


    nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    複製リソースグループの HAStoragePlus リソース

    -x GlobalDevicePaths=

    Sun StorEdge Availability Suite 3.1 ソフトウェアが依存する拡張プロパティを指定します。

    -x AffinityOn=True

    SUNW.HAStoragePlus リソースが、-x GlobalDevicePaths= で定義された広域デバイスおよびクラスタファイルシステムに対して、アフィニティースイッチオーバーを実行することを指定します。 したがって、複製リソースグループがフェイルオーバーまたはスイッチオーバーすると、関連デバイスグループがスイッチオーバーします。

    これらの拡張プロパティについては、SUNW.HAStoragePlus(5) のマニュアルページを参照してください。

  5. 論理ホスト名リソースを複製リソースグループに追加します。


    nodeA# /usr/cluster/bin/scrgadm -a -L \
    -j lhost-reprg-prim -g devicegroup-stor-rg -l lhost-reprg-prim
    

    ここで lhost-reprg-prim は、主クラスタ上の複製リソースグループの論理ホスト名です。

  6. リソースを有効にし、リソースグループを管理し、リソースグループをオンラインにします。


    nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA
    
  7. リソースグループがオンラインであることを確認します。


    nodeA# /usr/cluster/bin/scstat -g
    

    リソースグループの状態フィールドを調べ、複製リソースグループが nodeAnodeB でオンラインとなっていることを確認します。

二次クラスタで複製リソースグループを作成する

    主クラスタで複製リソースグループを作成するの手順のうち以下を置き換えて繰り返します。

    • nodeAnodeC に置き換える

    • nodeB は使用しない

    • lhost-reprg-prim への参照を lhost-reprg-sec と置き換える

アプリケーションリソースグループの作成

この節では、アプリケーションリソースグループが NFS アプリケーション向けにどのように作成されているかを説明します。 この節の手順はアプリケーション固有のものです。 他のタイプのアプリケーションに対しては使用できません。

主クラスタでアプリケーションリソースグループを作成する
  1. スーパーユーザーとして nodeA にアクセスします。

  2. SUNW.nfs をリソースタイプとして登録します。


    nodeA# scrgadm -a -t SUNW.nfs
    
  3. SUNW.HAStoragePlus をリソースタイプとして登録していない場合は、登録します。


    nodeA# scrgadm -a -t SUNW.HAStoragePlus
    
  4. devicegroup のアプリケーションリソースグループを作成します。


    nodeA# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    アプリケーションリソースグループの名前です。

    Pathprefix=/global/etc

    グループのリソースが管理ファイルを書き込むディレクトリを指定します。

    Auto_start_on_new_cluster=False

    アプリケーションリソースグループが自動的に起動しないように指定します。

    RG_dependencies=devicegroup-stor-rg

    アプリケーションリソースグループが依存するリソースグループを指定します。 この例では、アプリケーションリソースグループは複製リソースグループに依存しています。

    アプリケーションリソースグループが新しい主ノードにスイッチオーバーすると、複製リソースグループが自動的にスイッチオーバーします。 ただし、複製リソースグループが新しい主ノードにスイッチオーバーした場合は、アプリケーションリソースグループを手動でスイッチオーバーする必要があります。

  5. SUNW.HAStoragePlus リソースをアプリケーションリソースグループに追加します。


    nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    NFS アプリケーション向けの HAStoragePlus リソースの名前かどうかを確認します。

    -x FileSystemMountPoints=/global/

    ファイルシステムのマウントポイントがグローバルであることを指定します。

    -t SUNW.HAStoragePlus

    リソースのタイプに SUNW.HAStoragePlus を指定します。

    -x AffinityOn=True

    アプリケーションリソースが -x GlobalDevicePaths= で定義された広域デバイスとクラスタファイルシステム向けにアフィニティスイッチオーバーを実行するように指定します。 したがって、アプリケーションリソースグループがフェイルオーバーまたはスイッチオーバーすると、関連デバイスグループがスイッチオーバーします。

    これらの拡張プロパティについては、SUNW.HAStoragePlus(5) のマニュアルページを参照してください。

  6. 論理ホスト名リソースをアプリケーションリソースグループに追加します。


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \
    -l  lhost-nfsrg-prim
    

    ここで lhost-nfsrg-prim は、主クラスタ上のアプリケーションリソースグループの論理ホスト名です。

  7. リソースを有効にし、アプリケーションリソースグループを管理し、アプリケーションリソースグループをオンラインにします。

    1. NFS アプリケーション向け HAStoragePlus リソースをオンラインにします。


      nodeA# /usr/cluster/bin/scrgadm -a -g nfs-rg \
      -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
      
    2. nodeA でアプリケーションリソースグループをオンラインにします。


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h nodeA
      
  8. アプリケーションリソースグループがオンラインであることを確認します。


    nodeA# /usr/cluster/bin/scstat -g
    

    アプリケーションリソースグループの状態フィールドを調べ、複製リソースグループが nodeAnodeB でオンラインとなっているかどうかを調べます。

二次クラスタでアプリケーションリソースグループを作成する
  1. 主クラスタでアプリケーションリソースグループを作成する手順 1 から手順 6 に説明されているうち、以下を置き換えて、アプリケーショングループリソースを作成します。

    • nodeAnodeC に置き換える

    • nodeB への参照を無視する

    • lhost-nfsrg-prim への参照を lhost-nfsrg-sec と置き換える

  2. アプリケーションリソースグループが nodeC でオンラインになっていないことを確認します。


    nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
    nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
    nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
    nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
    

    Auto_start_on_new_cluster=False によって、リソースグループは再起動後もオフラインのままになります。

  3. 広域ボリュームが主クラスタにマウントされている場合は、二次クラスタの広域ボリュームのマウントを解除します。


    nodeC# umount /global/mountpoint
    

    ボリュームが二次クラスタにマウントされていると、同期が失敗します。