Sun Cluster のシステム管理 (Solaris OS 版)

第 5 章 グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理

この章では、グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理手順を説明します。

この章の関連手順の詳細は、表 5–4 を参照してください。

グローバルデバイス、グローバルな名前空間、デバイスグループ、ディスクパスの監視、およびクラスタファイルシステムに関連する概念については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。

グローバルデバイスとグローバルな名前空間の管理の概要

Sun Cluster デバイスグループの管理方法は、クラスタにインストールされているボリューム管理ソフトウェアによって決まります。Solaris Volume Manager は「クラスタ対応」なので、Solaris Volume Manager の metaset(1M) コマンドを使用してデバイスグループを追加、登録、および削除できます。VERITAS Volume Manager (VxVM) を使用している場合、VxVM コマンドを使用してディスクグループを作成し、clsetup ユーティリティーを使用して、ディスクグループを Sun Cluster のデバイスグループとして登録します。VxVM デバイスグループを削除するには、clsetup コマンドと VxVM のコマンドの両方を使用します。


注 –

Solaris 10 OS の場合、グローバルデバイスは非大域ゾーンから直接アクセスすることはできません。


Sun Cluster ソフトウェアは、クラスタ内のディスクデバイスやテープデバイスごとに、raw ディスクデバイスグループを自動的に作成します。ただし、クラスタデバイスグループはグローバルデバイスとしてアクセスされるまでオフラインのままです。デバイスグループやボリューム管理ソフトウェアのディスクグループを管理する際は、グループの主ノードであるクラスタから実行する必要があります。

グローバルな名前空間はインストール中に自動的に設定され、Solaris OS の再起動中に自動的に更新されるため、通常、グローバルデバイス名前空間は管理する必要はありません。ただし、グローバルな名前空間を更新する必要がある場合は、任意のクラスタノードから cldevice populate コマンドを実行できます。このコマンドにより、その他のすべてのクラスタノードだけでなく、今後クラスタに結合する可能性があるノードでもグローバルな名前空間を更新できます。

Solaris Volume Manager のグローバルデバイスのアクセス権

グローバルデバイスのアクセス権に加えた変更は、Solaris Volume Manager およびディスクデバイスのクラスタのすべてのノードには自動的に伝達されません。グローバルデバイスのアクセス権を変更する場合は、クラスタ内のすべてのノードで手作業でアクセス権を変更する必要があります。たとえば、グローバルデバイス /dev/global/dsk/d3s0 のアクセス権を 644 に変更する場合は、クラスタ内のすべてのノード上で次のコマンドを実行します。

# chmod 644 /dev/global/dsk/d3s0

VxVM は、chmod コマンドをサポートしません。VxVM でグローバルデバイスのアクセス権を変更する方法については、VxVM の管理者ガイドを参照してください。

グローバルデバイスでの動的再構成

クラスタ内のディスクデバイスやテープデバイス上で動的再構成 (DR) を実行するときには、いくつかの問題を考慮する必要があります。


注意 – 注意 –

二次ノードに対して DR 操作を行っているときに現在の主ノードに障害が発生すると、クラスタの可用性が損なわれます。新しい二次ノードが提供されるまで、主ノードにはフェイルオーバーする場所がありません。


グローバルデバイス上で DR 操作を実行するには、次の手順をその順番どおりに行います。

表 5–1 作業マップ: ディスクデバイスとテープデバイスでの動的再構成

作業 

説明 

1. アクティブなデバイスグループに影響するような DR 操作を現在の主ノードに実行する必要がある場合、DR 削除操作をデバイス上で実行する前に、主ノードと二次ノードの切替えを実行 

「デバイスグループの主ノードを切り替える」

2. 削除するデバイス上で DR 削除操作を実行します。 

Solaris 9 on Sun Hardware」コレクションと「Solaris 10 on Sun Hardware」コレクションの『Sun Enterprise 10000 DR Configuration Guide』と『Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual

SPARC: VERITAS Volume Manager による管理に関する注意事項

ストレージベースの複製されたデバイスの管理

ストレージベースの複製によって複製されたデバイスを含めるよう、Sun Cluster デバイスグループを構成することができます。Sun Cluster ソフトウェアは、ストレージベースの複製用に Hitachi TrueCopy および EMC Symmetrix Remote Data Facility ソフトウェアをサポートしています。

Hitachi TrueCopy または EMC Symmetrix Remote Data Facility ソフトウェアでデータを複製する前に、ストレージベースの複製用ソフトウェアのマニュアルによく目を通し、ストレージベースの複製製品と最新のパッチを、使用しているシステムにインストールしておいてください。ストレージベースの複製ソフトウェアのインストールについては、製品のマニュアルを参照してください。

ストレージベースの複製ソフトウェアは、デバイスのペアを複製として構成する際、一方のデバイスを主複製、もう一方のデバイスを二次複製とします。一方のノードのセットに接続されたデバイスが、常に主複製になります。もう一方のノードのセットに接続されたデバイスは、二次複製になります。

Sun Cluster 構成では、複製が属する Sun Cluster デバイスグループが移動されると、常に、主複製が自動的に移動されます。そのため、Sun Cluster 構成下では、主複製を直接移動してはいけません。その代わりに、テイクオーバーは関連する Sun Cluster デバイスグループを移動することによって行うべきです。

Hitachi TrueCopy で複製されたデバイスの管理

次の表に、Hitachi TrueCopy によるストレージベースの複製されたデバイスを設定するために実行する作業を示します。

表 5–2 作業マップ: Hitachi TrueCopy によるストレージベースの複製デバイスの管理

作業 

参照先 

ストレージデバイスとノードに TrueCopy ソフトウェアをインストールする。 

Hitachi ストレージデバイスに付属するマニュアル。 

Hitachi 複製グループを構成する。 

「Hitachi TrueCopy 複製グループを構成する」

DID デバイスを構成する。 

「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する」

複製されたグループを登録する。 

「デバイスグループを追加および登録する (Solaris Volume Manager)」または 「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」

構成を確認する。 

「Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する」

ProcedureHitachi TrueCopy 複製グループを構成する

始める前に

まず、主クラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成します。この構成情報は、Hitachi アレイへのアクセス権を持つ各クラスタノードの /etc/horcm.conf ファイルに指定します。 /etc/horcm.conf ファイルを構成する方法についての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。

  1. ストレージアレイに接続されたすべてのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. /etc/services ファイルに horcm エントリを追加します。


    horcm  9970/udp

    新しいエントリのポート番号とプロトコル名を指定します。

  3. /etc/horcm.conf ファイルに Hitachi TrueCopy デバイスグループの構成情報を指定します。

    手順については、TrueCopy ソフトウェアに付属するマニュアルを参照してください。

  4. すべてのノード上で horcmstart.sh コマンドを実行することにより、TrueCopy CCI デーモンを起動します。


    # /usr/bin/horcmstart.sh
  5. まだ複製のペアを作成していない場合は、この時点で作成します。

    paircreate コマンドを使用して、希望のフェンスレベルを持つ複製のペアを作成します。複製のペアの作成方法の手順については、TrueCopy のマニュアルを参照してください。

  6. 複製されたデバイスを使用して構成された各ノード上で、pairdisplay コマンドを使用することでデータ複製が正しく設定されていることを確認します。


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
  7. すべてのノードが複製グループをマスターできることを確認します。

    1. どのノードに主複製が含まれ、どのノードに二次複製が含まれているかを判別するには、pairdisplay コマンドを使用します。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

      P-VOL 状態のローカル (L) デバイスを持つノードには主複製が含まれ、S-VOL 状態のローカル (L) デバイスを持つノードには二次複製が含まれます。

    2. 二次ノードをマスターにするには、二次複製が含まれるノード上で horctakeover コマンドを実行します。


      # horctakeover -g group-name
      

      次の手順に進む前に、初期データコピーが完了するのを待ちます。

    3. horctakeover を実行したノードが、この時点で、P-VOL 状態のロー カル (L) デバイスを持っていることを確認します。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR DATA ,----- 58   -
    4. もとは主複製が含まれていたノード上で horctakeover コマンドを実行します。


      # horctakeover -g group-name
      
    5. pairdisplay コマンドを実行することで、主ノードが元の構成に戻ったことを確認します。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
次の手順

「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する」の手順に従って、複製されたデバイスの構成を続けます。

ProcedureHitachi TrueCopy を使用して DID デバイスを複製用に構成する

始める前に

複製されたデバイス用にデバイスグループを構成したあと、複製されたデバイスが使用するデバイス識別子 (DID) ドライバを構成します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. すべてのノード上で horcm デーモンが実行中であることを確認します。

    実行されていない場合は、次のコマンドでデーモンが起動されます。デーモンがすでに実行されている場合は、システムによりメッセージが表示されます。


    # /usr/bin/horcmstart.sh
  3. pairdisplay コマンドを実行して、どのノードに二次複製が含まれているかを判別します。


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

    S-VOL 状態のローカル (L) デバイスを持つノードには二次複製が含まれています。

  4. (前の手順で判別した) 二次複製を持つノードで、ストレージベースの複製で使用するための DID デバイスを構成します。

    このコマンドは、デバイス複製ペアの 2 つの独立した DID インスタンスを、1 つの論理 DID インスタンスに結合します。この 1 つのインスタンスにより、そのデバイスをボリューム管理ソフトウェアで両側から使用できるようになります。


    注意 – 注意 –

    二次複製に複数のノードが接続されている場合、このコマンドは、それらのノードのうちの 1 つのノード上でのみ実行してください。



    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    
    primary-replica-nodename

    主複製が格納されているリモートノードの名前を指定します。

    -S

    現在のノード以外のソースノードを指定します。

    secondary replica-nodename

    二次複製が格納されているリモートノードの名前を指定します。


    注 –

    デフォルトでは、現在のノードがソースノードです。-S オプションは、別のソースノードを指定するのに使用します。


  5. DID インスタンスが結合されていることを確認します。


    # cldevice list -v logical_DID_device
    
  6. TrueCopy 複製が設定されていることを確認します。


    # cldevice show logical_DID_device
    

    コマンド出力には、truecopy が複製タイプであることが示されるはずです。

  7. DID の再マッピングによって、すべての複製されたデバイスが正しく結合されなかった場合、手動で個別の複製されたデバイスを結合します。


    注意 – 注意 –

    DID インスタンスを手動で結合する際には、特に注意してください。デバイスの再マッピングが正しくないと、データが破損する可能性があります。


    1. 二次複製が含まれるすべてのノード上で cldevice combine コマンドを実行します。


      # cldevice combine -d destination-instance source-instance
      
      -d destination-instance

      主複製に対応するリモート DID インスタンス。

      source-instance

      二次複製に対応するローカル DID インスタンス。

    2. DID の再マッピングが正しく行われたことを確認します。


      # cldevice list desination-instance source-instance
      

    DID インスタンスの 1 つは表示されないはずです。

  8. すべてのノード上で、すべての結合された DID インスタンスの DID デバイスがアクセス可能であることを確認します。


    # cldevice list -v
    
次の手順

複製されたデバイスグループの構成をを完了するには、次の手順を実行します。

ProcedureHitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する

始める前に

グローバルデバイスグループは、確認する前にまず作成する必要があります。Solaris ボリュームマネージャー デバイスグループ、Veritas Volume Manager デバイスグループ、または raw ディスクデバイスグループを使用できます。Solstice DiskSuite または Solaris ボリュームマネージャー デバイスグループの作成についての詳細は、「デバイスグループを追加および登録する (Solaris Volume Manager)」を参照してください。VERITAS Volume Manager デバイスグループの作成についての詳細は、「SPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)」を参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. 主デバイスグループが、主複製が含まれるノードと同じノードに対応することを確認します。


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    
  2. デバイスグループに複製のプロパティーが設定されていることを確認します。


    # cldevicegroup show -n nodename group-name
    
  3. デバイスに複製されたプロパティーが設定されていることを確認します。


    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
    
  4. 試験的にスイッチオーバーを実行して、デバイスグループが正しく構成され、複製がノード間を移動できることを確認します。

    デバイスグループがオフラインのときは、オンラインにします。


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    デバイスグループの切り替え先のノード。このノードが新しい主ノードになります。

  5. 次のコマンドの出力を比較することにより、スイッチオーバーが成功したことを確認します。


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    

例: Sun Cluster 向けの TrueCopy 複製グループの構成

この例では、クラスタの TrueCopy 複製を設定するのに必要な Sun Cluster 固有の手順を完了します。この例では、すでに次の作業が完了していることが前提となっています。

この例では、TrueCopy を使用する 3 ノードクラスタを扱います。クラスタは 2 つのリモートサイトにまたがっており、一方のサイトに 2 つのノードがあり、もう一方のサイトに 1 つのノードがあります。各サイトにはそれぞれ Hitachi ストレージデバイスがあります。

次の例に、各ノード上の TrueCopy /etc/horcm.conf 構成ファイルを示します。


例 5–1 ノード 1 上の TrueCopy 構成ファイル


HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm


例 5–2 ノード 2 上の TrueCopy 構成ファイル


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm


例 5–3 ノード 3 上の TrueCopy 構成ファイル


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

上記の例では、3 つの LUN が 2 つのサイト間で複製されます。LUN はすべて VG01 という名前の複製グループ内にあります。pairdisplay コマンドを使用すると、この情報が確認され、またノード 3 には主複製があることが示されます。


例 5–4 ノード 1 上の pairdisplay コマンドの出力


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


例 5–5 ノード 2 上の pairdisplay コマンドの出力


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


例 5–6 ノード 3 上の pairdisplay コマンドの出力


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 

どのディスクが使用されているかを確認するには、次の例に示すように、pairdisplay コマンドの -fd オプションを使用します。


例 5–7 使用されているディスクを示す、ノード 1 上の pairdisplay コマンドの出力


# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


例 5–8 使用されているディスクを示す、ノード 2 上の pairdisplay コマンドの出力


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR DATA  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


例 5–9 使用されているディスクを示す、ノード 3 上の pairdisplay コマンドの出力


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR DATA  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR DATA  ,-----    60  -

これらの例は、次のディスクが使用されていることを示しています。

これらのディスクに対応する DID デバイスを確認するには、次の例に示すように、cldevice list コマンドを使用します。


例 5–10 使用されているディスクに対応する DID の表示


# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12     
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

複製されたデバイスの各ペアの DID インスタンスを結合する場合、cldevice list は DID インスタンス 12 を 22、インスタンス 13 を 23、インスタンス 14 を 24 と結合するはずです。ノード 3 には主複製があるため、ノード 1 またはノード 2 のいずれかから cldevice -T コマンドを実行します。インスタンスの結合は常に、二次複製があるノードから行います。このコマンドは 1 つのノードからのみ実行し、両方のノード上では実行しないでください。

次の例に、ノード 1 上でこのコマンドを実行することにより DID インスタンスを結合した場合の出力を示します。


例 5–11 DID インスタンスの結合


# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

cldevice list の出力を確認すると、両方のサイトの LUN には同じ DID インスタンスがあります。次の例に示すように、同じ DID インスタンスを持っていると、各複製ペアは単一の DID デバイスのように見えます。


例 5–12 結合された DID の表示


# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

次に、ボリュームマネージャーデバイスグループを作成します。このコマンドは、主複製があるノード、この例ではノード 3 から実行します。次の例に示すように、デバイスグループには複製グループと同じ名前を指定します。


例 5–13 Solaris ボリュームマネージャーデバイスグループの作成


# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

この時点で、デバイスグループは使用でき、メタデバイスの作成が可能であり、またデバイスグループは 3 つのノードのうち任意のノードに移動できます。ただし、スイッチオーバーとフェイルオーバーをより効率的にするため、cldevicegroup set を実行して、デバイスグループをクラスタ構成内で複製済みにマークします。


例 5–14 スイッチオーバーとフェイルオーバーの効率化


# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

複製グループの構成はこの手順で完了します。構成が正しく行われたことを確認するには、「Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する」の手順を実行します。

EMC Symmetrix Remote Data Facility で複製したデバイスの管理

次の表に、EMC Symmetrix Remote Data Facility (SRDF) ストレージベースの複製されたデバイスを設定するために実行する作業を示します。

表 5–3 作業マップ: EMC SRDF ストレージベースの複製されたデバイスの管理

作業 

参照先 

ストレージデバイスとノードに SRDF ソフトウェアをインストールする。 

EMC ストレージデバイスに付属するマニュアル。 

EMC 複製グループを構成する。 

「EMC Symmetrix Remote Data Facility 複製グループを構成する」

DID デバイスを構成する。 

「EMC Symmetrix Remote Data Facility (SRDF) を使用して DID デバイスを複製用に構成する」

複製されたグループを登録する。 

「デバイスグループを追加および登録する (Solaris Volume Manager)」または 「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」

構成を確認する。 

「EMC Symmetrix Remote Data Facility (SRDF) で複製されたグローバルデバイスグループ構成を確認する」

ProcedureEMC Symmetrix Remote Data Facility 複製グループを構成する

始める前に

EMC Symmetrix Remote Data Facility (SRDF) 複製グループを構成する前に、すべてのクラスタノードに EMC Solutions Enabler ソフトウェアをインストールしてください。まず、主クラスタの共有ディスクに EMC SRDF デバイスグループを構成します。EMC SRDF デバイスグループを構成する方法についての詳細は、EMC SRDF 製品のマニュアルを参照してください。

EMC SRDF を使用するときは、静的デバイスではなく、動的デバイスを使用します。静的デバイスは主複製を変更するために数分の時間が必要で、フェイルオーバー時間に影響を与える可能性があります。

  1. ストレージアレイに接続されたすべてのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. 複製データで構成された各ノードで、シンメトリックスデバイス構成を検出します。

    この処理には数分かかることがあります。


    # /usr/symcli/bin/symcfg discover
    
  3. まだ複製のペアを作成していない場合は、この時点で作成します。

    複製のペアを作成するには、symrdf コマンドを使用します。複製のペアの作成方法の手順については、SRDF のマニュアルを参照してください。

  4. 複製されたデバイスによって構成された各ノードで、データの複製が正しく設定されていることを確認します。


    # /usr/symcli/bin/symdg show group-name
    
  5. デバイスグループのスワップを実行します。

    1. 主複製と二次複製が同期していることを確認します。


      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
      
    2. どのノードに主複製が含まれ、どのノードに二次複製が含まれているかを判別するには、symdg show コマンドを使用します。


      # /usr/symcli/bin/symdg show group-name
      

      RDF1 デバイスのノードには主複製が含まれ、RDF2 デバイス状態のノードには二次複製が含まれます。

    3. 二次複製を有効にします。


      # /usr/symcli/bin/symrdf -g group-name failover
      
    4. RDF1 デバイスと RDF2 デバイスをスワップします。


      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
      
    5. 複製ペアを有効にします。


      # /usr/symcli/bin/symrdf -g group-name establish
      
    6. 主ノードと二次複製が同期していることを確認します。


      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
      
  6. もともと主複製があったノードで上記 5 つの手順をすべて繰り返します。

次の手順

EMC SRDF で複製されたデバイス用にデバイスグループを構成したあと、複製されたデバイスが使用するデバイス識別子 (DID) ドライバを構成します。

ProcedureEMC Symmetrix Remote Data Facility (SRDF) を使用して DID デバイスを複製用に構成する

この手順では、複製されたデバイスが使用するデバイス識別名 (DID) ドライバを構成します。

始める前に

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. RDF1 デバイスおよび RDF2 デバイスに対応する DID デバイスを判別します。


    # /usr/symcli/bin/symdg show group-name
    

    注 –

    システムに Solaris デバイスのパッチ全体が表示されない場合は、環境変数 SYMCLI_FULL_PDEVNAME を 1 に設定して、symdg -show コマンドをもう一度入力します。


  3. Solaris デバイスに対応する DID デバイスを判別します。


    # cldevice list -v
    
  4. 一致した DID デバイスのペアごとに、インスタンスを 1 つの複製された DID デバイスにまとめます。RDF2 (二次側) から次のコマンドを実行します。


    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance
    

    注 –

    SRDF データ複製デバイスでは、-T オプションはサポートされていません。


    -t replication-type

    複製タイプを指定します。EMC SRDF の場合、SRDF を入力します。

    -g replication-device-group

    symdg show コマンドで表示されるデバイスグループの名前を指定します。

    -d destination-instance

    RDF1 デバイスに対応する DID インスタンスを指定します。

    source-instance

    RDF2 デバイスに対応する DID インスタンスを指定します。


    注 –

    誤った DID デバイスを結合した場合は、scdidadm コマンドで -b オプションを使用して、2 つの DID デバイスの結合を取り消します。


    # scdidadm -b device 
    
    -b device

    インスタンスを結合したときに destination_device に対応していた DID インスタンス。


  5. DID インスタンスが結合されていることを確認します。


    # cldevice list -v device
    
  6. SRDF 複製が設定されていることを確認します。


    # cldevice show device
    
  7. すべてのノード上で、すべての結合された DID インスタンスの DID デバイスがアクセス可能であることを確認します。


    # cldevice list -v
    
次の手順

複製されたデバイスが使用するデバイス識別名 (DID) を構成したら、EMC SRDF で複製されたグローバルデバイスグループ構成を必ず確認してください。

ProcedureEMC Symmetrix Remote Data Facility (SRDF) で複製されたグローバルデバイスグループ構成を確認する

始める前に

グローバルデバイスグループを確認する前に、まずそれを作成します。Solstice DiskSuite または Solaris ボリュームマネージャー デバイスグループの作成についての詳細は、「デバイスグループを追加および登録する (Solaris Volume Manager)」を参照してください。VERITAS Volume Manager デバイスグループの作成についての詳細は、「SPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)」を参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. 主デバイスグループが、主複製が含まれるノードと同じノードに対応することを確認します。


    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
    
  2. 試験的にスイッチオーバーを実行して、デバイスグループが正しく構成され、複製がノード間を移動できることを確認します。

    デバイスグループがオフラインのときは、オンラインにします。


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    デバイスグループの切り替え先のノード。このノードが新しい主ノードになります。

  3. 次のコマンドの出力を比較することにより、スイッチオーバーが成功したことを確認します。


    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
    

例: Sun Cluster 向けの SRDF 複製グループの構成

この例では、クラスタの SRDF 複製を設定するのに必要な Sun Cluster 固有の手順を完了します。この例では、すでに次の作業が完了していることが前提となっています。

この例には 4 ノードクラスタが含まれ、そのうちの 2 ノードは 1 つのシンメトリックスに接続され、ほかの 2 ノードはもう 1 つのシンメトリックスに接続されています。SRDF デバイスグループは、dg1 と呼ばれます。


例 5–15 複製ペアの作成

すべてのノードで次のコマンドを実行します。


# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

RDF1 側のすべてのノードで、次のように入力します。


# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

RDF2 側のすべてのノードで、次のように入力します。


# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067


例 5–16 データ複製設定の確認

クラスタ内の 1 つのノードから、次のように入力します。


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 


例 5–17 使用されているディスクに対応する DID の表示

RDF1 側と RDF2 側で同じ手順を実行します。

dymdg show dg コマンドの出力の PdevName フィールドの下 に DID を表示できます。

RDF1 側で次のように入力します。


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

対応する DID を取得するには、次のように入力します。


# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

対応する DID の一覧を表示するには、次のように入力します。


# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

RDF2 側で次のように入力します。

dymdg show dg コマンドの出力の PdevName フィールドの下 に DID を表示できます。


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

対応する DID を取得するには、次のように入力します。


# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

対応する DID の一覧を表示するには、次のように入力します。


# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d108
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 


例 5–18 DID インスタンスの結合

RDF2 側から次のように入力します。


# cldevice combine -t srdf -g dg1 -d d217 d108
# 


例 5–19 結合された DID の表示

クラスタ内の任意のノードから、次のように入力します。


# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

クラスタファイルシステムの管理の概要

クラスタファイルシステムを管理するのに特別な Sun Cluster コマンドは必要ありません。クラスタファイルシステムを管理するには、他の Solaris ファイルシステムを管理するときと同じように、Solaris の標準のファイルシステムコマンド (mountnewfs など) などを使用します。クラスタファイルシステムをマウントするには、mount コマンドに -g オプションを指定します。また、起動時に自動的にマウントすることもできます。クラスタファイルシステムは大域ゾーンからのみ認識できます。クラスタファイルシステムのデータを非大域ゾーンからアクセス可能にする必要がある場合は、zoneadm(1M) または HAStoragePlus を使用して非大域ゾーンにデータをマッピングします。


注 –

クラスタファイルシステムがファイルを読み取るとき、ファイルシステムはファイルのアクセス時間を更新しません。


クラスタファイルシステムの制限事項

次に、クラスタファイルシステム管理に適用される制限事項を示します。

SPARC: VxFS サポートについてのガイドライン

次の VxFS 機能は、Sun Cluster 3.2 クラスタファイルシステムではサポートされていません。ただし、ローカルのファイルシステムではサポートされます。

キャッシュアドバイザリは使用可能、効果が認められるのは特定のノードのみ

クラスタファイルシステムでサポートされる VxFS のそのほかの機能とオプションは、すべて Sun Cluster 3.2 ソフトウェアでサポートされます。クラスタ構成でサポートされる VxFS オプションの詳細については、VxFS マニュアルを参照してください。

VxFS を使用して高可用性クラスタファイルシステムを作成するための次のガイドラインは、Sun Cluster 3.2 構成に固有のものです。

VxFS クラスタファイルシステムを管理するための次のガイドラインは、Sun Cluster 3.2 ソフトウェアに固有のものではありません。しかし、これらのガイドラインは UFS クラスタファイルシステムを管理する方法とは異なります。

デバイスグループの管理

クラスタの要件の変化により、クラスタ上のデバイスグループの追加、削除、または変更が必要となる場合があります。Sun Cluster には、このような変更を行うために使用できる、clsetup と呼ばれる対話型インタフェースがあります。clsetupcluster コマンドを生成します。生成されるコマンドについては、各説明の後にある例を参照してください。次の表に、デバイスグループを管理するための作業を示し、またこの節の適切な手順へのリンクを示します。


注意 – 注意 –

ほかのノードが有効なクラスタメンバーであり、それらのノードの少なくとも 1 つがディスクセットを持つ場合は、クラスタの外側で起動されるクラスタノードで metaset —s setname —f -t を実行しないでください。



注 –

Sun Cluster ソフトウェアは、クラスタ内のディスクデバイスやテープデバイスごとに、raw ディスクデバイスグループを自動的に作成します。ただし、クラスタデバイスグループはグローバルデバイスとしてアクセスされるまでオフラインのままです。


表 5–4 作業マップ: デバイスグループの管理

作業 

参照先 

cldevice populate コマンドを使用することにより、再構成の再起動を行わずにグローバルデバイス名前空間を更新する

「グローバルデバイス名前空間を更新する」

metaset コマンドを使用することにより、Solaris Volume Manager ディスクセットを追加し、それらをデバイスグループとして登録する

「デバイスグループを追加および登録する (Solaris Volume Manager)」

metaset コマンドおよび metaclear コマンドを使用することにより、構成から Solaris Volume Manager デバイスグループを削除する

「デバイスグループを削除して登録を解除する (Solaris Volume Manager )」

cldevicegroupmetaset、および clsetup コマンドを使用することにより、すべてのデバイスグループからノードを削除する

「すべてのデバイスグループからノードを削除する」

metaset コマンドを使用することにより、Solaris Volume Manager デバイスグループからノードを削除する

「デバイスグループからノードを削除する (Solaris Volume Manager)」

SPARC:VxVM のコマンドおよび clsetup を使用することにより、VERITAS Volume Manager のディスクグループをデバイスグループとして追加する

「SPARC: ディスクの初期化時に新しいディスクグループを作成 (VERITAS Volume Manager)」

「SPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)」

「SPARC: 新しいボリュームを既存のデバイスグループに追加する (VERITAS Volume Manager)」

「SPARC: 既存のディスクグループをデバイスグループに変換する (VERITAS Volume Manager)」

「SPARC: デバイスグループに新しいマイナー番号を割り当てる (VERITAS Volume Manager)」

「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」

「ローカルディスクグループをデバイスグループに変換する (VxVM)」

「デバイスグループをローカルディスクグループに変換する (VxVM)」

「SPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)」

SPARC:clsetup コマンドを使用することにより (cldevicegroup コマンドを生成して) 構成から VERITAS Volume Manager デバイスグループを削除する

「SPARC: デバイスグループからボリュームを削除する (VERITAS Volume Manager)」

「SPARC: デバイスグループを削除して登録を解除する (VERITAS Volume Manager )」

SPARC:clsetup を使用して cldevicegroup を生成することにより、ノードを VERITAS Volume Manager デバイスグループに追加する

「SPARC: デバイスグループにノードを追加する (VERITAS Volume Manager)」

SPARC:clsetup を使用して cldevicegroup を生成することにより、VERITAS Volume Manager デバイスグループからノードを削除する

「SPARC: デバイスグループからノードを削除する (VERITAS Volume Manager)」

cldevicegroup コマンドを使用することにより、raw ディスクデバイスグループからノードを削除する

「raw ディスクデバイスグループからノードを削除する」

clsetup を使用して cldevicegroup を生成することにより、デバイスグループのプロパティーを変更する

「デバイスグループのプロパティーを変更する」

cldevicegroup show コマンドを使用することにより、デバイスグループとプロパティーを表示する

「デバイスグループ構成の一覧を表示する」

clsetup を使用して cldevicegroup を生成することにより、デバイスグループの二次ノードの希望数を変更する

「デバイスグループの二次ノードの希望数を設定する」

cldevicegroup switch コマンドを使用することにより、デバイスグループの主ノードを切り替える

「デバイスグループの主ノードを切り替える」

metaset コマンドまたは vxdg コマンドを使用することにより、デバイスグループを保守状態にする

「デバイスグループを保守状態にする」

Procedureグローバルデバイス名前空間を更新する

新しいグローバルデバイスを追加するときに、cldevice populate コマンドを実行して手作業でグローバルデバイス名前空間を更新します。


注 –

コマンドを実行するノードがクラスタのメンバーでない場合は、cldevice populate コマンドを実行しても無効です。また、/global/.devices/node@ nodeID ファイルシステムがマウントされていない場合も、コマンドは無効になります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. クラスタの各ノードで devfsadm(1M) コマンドを実行します。

    このコマンドは、すべてのノードで同時に実行できます。

  3. 名前空間を再構成します。


    # cldevice populate
    
  4. ディスクセットの作成に移る前に、各ノードで cldevice populate コマンドが終了しているかを確認します。

    ノードの 1 つで cldevice コマンドを実行すると、このコマンドはリモートから自分自身をすべてのノードで呼び出します。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。


    # ps -ef | grep scgdevs
    

例 5–20 グローバルデバイス名前空間の更新

次の例に、cldevice populate コマンドを正しく実行することにより生成される出力を示します。


# devfsadm
cldevice populate 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting
# ps -ef | grep scgdevs

Procedureデバイスグループを追加および登録する (Solaris Volume Manager)

metaset コマンドを使用して、Solaris Volume Manager ディスクセットを作成し、このディスクセットを Sun Cluster ディスクデバイスグループとして登録します。デバイスグループには、ディスクセットを登録するときにディスクセットに割り当てた名前が自動的に割り当てられます。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. ディスクセットを作成するディスクに接続されたノードのいずれかで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. SPARC: Solaris 9 のみ: 構成に必要な Solstice DiskSuite メタデバイスや Solaris ボリュームマネージャー ボリュームの名前の数を算出し、各ノード上の/kernel/drv/md.confファイルを変更します。Solaris 10 を実行している場合、この手順は不要です。

    『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「メタデバイス名またはボリューム名とディスクセットの数を算出する」を参照してください。

  3. Solaris Volume Manager ディスクセットを追加し、このディスクセットをデバイスグループとして Sun Cluster に登録します。複数所有者のディスクグループを作成するには、–M オプションを使用します。


    # metaset -s diskset -a -M -h nodelist
    
    -s diskset

    作成するディスクセットを指定します。

    -a -h nodelist

    ディスクセットをマスターできるノードの一覧を追加します。

    -M

    ディスクグループを複数所有者として指定します。


    注 –

    metaset コマンドを実行して設定した Solstice DiskSuite/Solaris Volume Manager デバイスグループは、そのデバイスグループに含まれるノード数に関わらず、デフォルトで二次ノードになります。デバイスグループが作成されたあと、clsetup ユーティリティーを使用することで、二次ノードの希望数を変更できます。ディスクのフェイルオーバーの詳細については、「デバイスグループの二次ノードの希望数を設定する」を参照してください。


  4. 複製されたデバイスグループを構成している場合は、そのデバイスグループの複製プロパティーを設定します。


    # cldevicegroup sync devicegroup
    
  5. デバイスグループが追加されたことを確認します。

    デバイスグループ名は metaset に指定したディスクセット名と一致します。


    # cldevicegroup list 
    
  6. DID マッピングの一覧を表示します。


    # cldevice show | grep Device
    
    • ディスクセットをマスターする (またはマスターする可能性がある) クラスタノードによって共有されているドライブを選択します。

    • ディスクセットにドライブを追加する際は、/dev/did/rdsk/dN という形式の完全な DID デバイス名を使用します。

    次の例では、DID デバイス /dev/did/rdsk/d3 のエントリは、ドライブが phys-schost-1 および phys-schost-2 によって共有されていることを示しています。


    === DID Device Instances ===                   
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  7. ディスクセットにドライブを追加します。

    完全な DID パス名を使用します。


    # metaset -s setname -a /dev/did/rdsk/dN
    
    -s setname

    デバイスグループ名と同じである、ディスクセット名を指定します。

    -a

    ディスクセットにドライブを追加します。


    注 –

    ディスクセットにドライブを追加するときは、下位デバイス名 (cNtXdY) は使用しないでください。下位レベルデバイス名はローカル名であり、クラスタ全体で一意ではないため、この名前を使用するとディスクセットがスイッチオーバーできなくなる可能性があります。


  8. 新しいディスクセットとドライブの状態を検査します。


    # metaset -s setname
    

例 5–21 Solaris Volume Manager デバイスグループの追加

次の例は、ディスクドライブ /dev/did/rdsk/d1 および /dev/did/rdsk/d2 を持つディスクセットおよびデバイスグループの作成を示し、またデバイスグループが作成されたことを確認しています。


# metaset -s dg-schost-1 -a -h phys-schost-1

# cldevicegroup list
dg-schost-1 
metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

デバイスグループを削除して登録を解除する (Solaris Volume Manager )

デバイスグループとは、Sun Cluster に登録している Solaris Volume Manager ディスクセットのことです。Solaris Volume Manager デバイスグループを削除するには、metaclearmetaset コマンドを使用します。これらのコマンドは、Sun Cluster デバイスグループと同じ名前を持つデバイスグループを削除して、ディスクグループの登録を解除します。

ディスクセットを削除する方法については、Solaris Volume Manager のマニュアルを参照してください。

Procedureすべてのデバイスグループからノードを削除する

すべてのデバイスグループの潜在的な主ノードからクラスタノードを削除する場合は、この手順を使用します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. すべてのデバイスグループの潜在的な主ノードとして削除するノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. 削除するノードがメンバーになっているデバイスグループ (複数可) を確認します。

    各デバイスグループの Device group node list からこのノード名を検索します。


    # cldevicegroup list -v
    
  3. 手順 2で特定したデバイスグループの中に、デバイスグループタイプが SVM のものがある場合、そのタイプの各デバイスグループに対して「デバイスグループからノードを削除する (Solaris Volume Manager)」の手順を実行します。

  4. 手順 2で特定したデバイスグループの中に、デバイスグループタイプが VxVM のものがある場合、そのタイプの各デバイスグループに対して「SPARC: デバイスグループからノードを削除する (VERITAS Volume Manager)」の手順を実行します。

  5. 削除するノードがメンバーになっている raw デバイスディスクグループを特定します。


    # cldevicegroup list -v
    
  6. 手順 5 で表示されたデバイスグループの中に、デバイスグループタイプが Disk または Local_Disk のものがある場合、これらの各デバイスグループに対して、「raw ディスクデバイスグループからノードを削除する」の手順を実行します。

  7. すべてのデバイスグループの潜在的な主ノードのリストからノードが削除されていることを確認します。

    ノードがどのデバイスグループの潜在的な主ノードのリストにも存在しなければ、このコマンドは何も返しません。


    # cldevicegroup list -v  nodename
    

Procedureデバイスグループからノードを削除する (Solaris Volume Manager)

Solaris Volume Manager デバイスグループの潜在的な主ノードのリストからクラスタノードを削除するには、次の手順を使用します。ノードを削除したいグループデバイスごとに metaset コマンドを繰り返します。


注意 – 注意 –

ほかのノードが有効なクラスタメンバーであり、それらのノードの少なくとも 1 つがディスクセットを持つ場合は、クラスタの外側で起動されるクラスタノードで metaset —s setname —f -t を実行しないでください。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. ノードがまだデバイスグループのメンバーであり、かつ、このデバイスグループが Solaris Volume Manager デバイスグループであることを確認します。

    Solaris Volume Manager のデバイスグループは、デバイスグループタイプが SDS/SVM のものです。


    phys-schost-1% cldevicegroup show devicegroup
    
  2. どのノードがデバイスグループの現在の主ノードであるかを特定します。


    # cluster status -t devicegroup
    
  3. 変更したいデバイスグループを所有しているノードでスーパーユーザーになります。

  4. デバイスグループからこのノードのホスト名を削除します。


    # metaset -s setname -d -h nodelist
    
    -s setname

    デバイスグループの名前を指定します。

    -d

    -h で指定されたノードをデバイスグループから削除します。

    -h nodelist

    削除されるノード (複数可) のノード名を指定します。


    注 –

    更新が完了するまでに数分間かかることがあります。


    コマンドが正常に動作しない場合は、コマンドに -f (force) オプションを追加します。


    # metaset -s setname -d -f -h nodelist
    
  5. 潜在的な主ノードとしてノードを削除するデバイスグループごとに手順 4 を繰り返します。

  6. デバイスグループからノードが削除されたことを確認します。

    デバイスグループ名は metaset に指定したディスクセット名と一致します。


    phys-schost-1% cldevicegroup list -v devicegroup
    

例 5–22 デバイスグループからノードを削除する (Solaris Volume Manager)

次に、デバイスグループ構成からホスト名 phys-schost-2 を削除する例を示します。この例では、指定したデバイスグループから phys-schost-2 を潜在的な主ノードとして削除します。cldevicegroup show コマンドを実行することにより、ノードが削除されていることを確認します。削除したノードが画面に表示されていないことを確認します。


[Determine the Solaris Volume Manager
 device group for the node:]
# cldevicegroup show dg-schost-1
=== Device Groups ===                          

Device Group Name:                    dg-schost-1
  Type:                                 SVM
  failback:                             no
  Node List:                            phys-schost-1, phys-schost-2
  preferenced:                          yes
  numsecondaries:                       1
  diskset name:                         dg-schost-1
[Determine which node is the current primary for the device group:]
# cldevicegroup status dg-schost-1
=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary      Status
-----------------    -------         ---------      ------
dg-schost-1          phys-schost-1   phys-schost-2  Online
[Become superuser on the node that currently owns the device group.]
[Remove the host name from the device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
phys-schost-1% cldevicegroup list -v dg-schost-1
=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary      Status
-----------------    -------         ---------      ------
dg-schost-1          phys-schost-1   -              Online

Procedure1 つのクラスタ内に 4 つ以上のディスクセットを作成する

Solaris 9 を実行中で、クラスタにディスクセットを 4 つ以上作成する場合は、ディスクセットを作成する前に次の各手順を行う必要があります。Solaris 10 を実行中である場合はこの手順を実行する必要はありません。初めてディスクセットをインストールする場合や、完全に構成されたクラスタにさらにディスクセットを追加する場合には次の手順に従います。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. md_nsets 変数が十分に大きな値であることを確認します。この値は、クラスタに作成する予定のディスクセットの合計数より大きな値である必要があります。

    1. クラスタの任意のノードで、/kernel/drv/md.conf ファイルの md_nsets 変数の値を検査します。

    2. クラスタ内にあるディスクセットの数が md_nsets の既存の値から 1 を引いた値よりも大きい場合、各ノード上で md_nsets の値を増やします。

      ディスクセットの最大数は md_nsets の値から 1 を引いた値です。md_nsets に設定できる最大値は 32 です。

    3. クラスタの各ノードの /kernel/drv/md.conf ファイルが同じであるかを確認します。


      注意 – 注意 –

      このガイドラインに従わないと、重大な Solaris Volume Manager エラーが発生し、データが失われることがあります。


    4. ノードのどれか 1 つでクラスタを停止します。


      # cluster shutdown -g0 -y
      
    5. クラスタ内にある各ノードを再起動します。

      • SPARC ベースのシステム上で、以下のコマンドを実行します。


        ok boot
        
      • x86 ベースのシステムでは、次の操作を実行します。

        GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.
  2. クラスタの各ノードで devfsadm(1M) コマンドを実行します。

    このコマンドは、すべてのノードで同時に実行できます。

  3. クラスタのノードの 1 つから cldevice populate コマンドを実行します。

  4. ディスクセットの作成に移る前に、各ノードで cldevice populate コマンドが終了しているかを確認します。

    ノードの 1 つで cldevice コマンドを実行すると、このコマンドはリモートから自分自身をすべてのノードで呼び出します。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。


    # ps -ef | grep scgdevs
    

ProcedureSPARC: ディスクの初期化時に新しいディスクグループを作成 (VERITAS Volume Manager)


注 –

次の手順は、ディスクを初期化する場合にのみ必要となります。ディスクをカプセル化する場合は、「SPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)」を参照してください。


VxVM ディスクグループを追加したら、デバイスグループを登録する必要があります。

VxVM を使用して Oracle Parallel Server または Oracle RAC 用の共有ディスクグループを設定する場合、『VERITAS Volume Manager Administrator's Reference Guide』に説明されている VxVM のクラスタ機能を使用します。

  1. 追加しようとしているディスクグループを構成するディスクに物理的に接続されている任意のクラスタノード上でスーパーユーザーになります。

  2. VxVM のディスクグループとボリュームを作成します。

    ディスクグループとボリュームは任意の方法で作成してください。


    注 –

    ミラー化したボリュームを設定している場合、ダーティーリージョンログ (DRL) を使用すると、ノードに障害が発生してからボリュームが回復するまでの時間を短縮できます。ただし、DRL を使用すると I/O スループットが低下することがあります。


    この手順を完了する方法については、VERITAS Volume Manager のマニュアルを参照してください。

  3. VxVM ディスクグループを Sun Cluster デバイスグループとして登録します。

    詳細は、「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」を参照してください。

    Oracle Parallel Server または Oracle RAC 用の共有ディスクグループをクラスタフレームワークに登録してはいけません。

ProcedureSPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)


注 –

次の手順は、ディスクをカプセル化する場合にのみ必要となります。ディスクを初期化する場合は、「SPARC: ディスクの初期化時に新しいディスクグループを作成 (VERITAS Volume Manager)」の手順を使用します。


ルート以外のディスクを Sun Cluster デバイスグループに変換するには、そのディスクを VxVM ディスクグループとしてカプセル化してから、そのディスクグループを Sun Cluster デバイスグループとして登録します。

ディスクのカプセル化は、VxVM ディスクグループを初めて作成するときのみサポートされています。VxVM ディスクグループを作成して、Sun Cluster デバイスグループとして登録したあとは、そのディスクグループには、初期化してもよいディスクだけを登録します。

VxVM を使用して Oracle Parallel Server または Oracle RAC 用の共有ディスクグループを設定する場合、『VERITAS Volume Manager Administrator's Reference Guide』に説明されている VxVM のクラスタ機能を使用します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. /etc/vfstab ファイルに、カプセル化されたディスクのファイルシステムのエントリがある場合は、mount at boot オプションを必ず no に設定します。

    ディスクがカプセル化されて Sun Cluster デバイスグループとして登録されたあとは、この設定を yes に設定し直します。

  3. ディスクをカプセル化します。

    vxdiskadm のメニューまたはグラフィカルユーザーインタフェースを使用して、ディスクをカプセル化します。VxVM では、2 つの空きパーティションのほかに、ディスクの始点または終端に未割当てのシリンダが必要です。また、スライス 2 をディスク全体に設定する必要もあります。詳細は、vxdiskadm のマニュアルページを参照してください。

  4. ノードを停止して再起動します。

    clnode evacuate コマンドは、すべての非大域ゾーンを含むすべてのリソースグループとデバイスグループを、指定のノードから次に優先されるノードにスイッチオーバーします。shutdown コマンドを使用して、ノードを停止して再起動します。


    # clnode evacuate  node[,...]
    # shutdown -g0 -y -i6
    
  5. 必要であれば、すべてのリソースグループとデバイスグループを元のノードにスイッチバックします。

    リソースグループとデバイスグループが、もともと主ノードにフェイルバックするように構成されていた場合、この手順は必要ありません。


    # cldevicegroup switch -n node devicegroup 
    # clresourcegroup switch -z zone -n node resourcegroup 
    
    node

    ノードの名前。

    zone

    リソースグループをマスターできる、node 上の非大域ゾーンの名前。リソースグループを作成した際に非大域ゾーンを指定した場合にのみ、zone を指定します。

  6. VxVM ディスクグループを Sun Cluster デバイスグループとして登録します。

    詳細は、「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」を参照してください。

    Oracle Parallel Server または Oracle RAC 用の共有ディスクグループをクラスタフレームワークに登録してはいけません。

  7. 手順 2mount at boot オプションを no に設定した場合は、yes に戻してください。

ProcedureSPARC: 新しいボリュームを既存のデバイスグループに追加する (VERITAS Volume Manager)

新しいボリュームを既存の VxVM デバイスグループに追加する場合、次の手順は、オンラインであるデバイスグループの主ノードから実行します。


注 –

ボリュームを追加したあとで、「SPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)」の手順に従って構成変更の内容を登録する必要があります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.administer を提供する役割になります。

  2. 新しいボリュームを追加するデバイスグループの主ノードを確認します。


    # cldevicegroup status
    
  3. デバイスグループがオフラインである場合、デバイスグループをオンラインにします。


    # cldevicegroup switch -n nodename devicegroup
    
    nodename

    デバイスグループの切り替え先であるノードの名前を指定します。このノードが新しい主ノードになります。

    devicegroup

    切り替えるデバイスグループを指定します。

  4. 主ノード (デバイスグループを現在マスターしているノード) から、ディスクグループに VxVM ボリュームを作成します。

    VxVM ボリュームの作成方法は、VERITAS Volume Manager のマニュアルを参照してください。

  5. VxVM ディスクグループに加えた変更を同期化し、グローバルな名前空間を更新します。

    # cldevicegroup sync

    「SPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)」

ProcedureSPARC: 既存のディスクグループをデバイスグループに変換する (VERITAS Volume Manager)

既存の VxVM ディスクグループを Sun Cluster デバイスグループに変換するには、ディスクグループを現在のノードにインポートしてから、そのディスクグループを Sun Cluster デバイスグループとして登録します。

  1. クラスタ内の任意のノード上でスーパーユーザーになります。

  2. VxVM ディスクグループを現在のノードにインポートします。


    # vxdg import diskgroup
    
  3. VxVM ディスクグループを Sun Cluster デバイスグループとして登録します。

    詳細は、「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」を参照してください。

ProcedureSPARC: デバイスグループに新しいマイナー番号を割り当てる (VERITAS Volume Manager)

マイナー番号がほかのディスクグループと衝突してデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てます。新しいマイナー番号を割り当てた後で、登録手順を再度実行し、ディスクグループを Sun Cluster デバイスグループとして登録します。

  1. クラスタ内の任意のノード上でスーパーユーザーになります。

  2. 使用中のマイナー番号を確認します。


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    
  3. 新しいディスクグループのベースとなるマイナー番号として、使用されていない別の 1000 の倍数を選択します。

  4. ディスクグループに新しいマイナー番号を割り当てます。


    # vxdg reminor diskgroup base-minor-number
    
  5. VxVM ディスクグループを Sun Cluster デバイスグループとして登録します。

    詳細は、「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」を参照してください。


例 5–23 SPARC: デバイスグループに新しいマイナー番号を割り当てる

次の例は、マイナー番号 16000 から 16002 と 4000 から 4001 が使用されていることを示しています。ここでは、vxdg reminor コマンドを使用して新しいデバイスグループにベースとなるマイナー番号 5000 を割り当てています。


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ProcedureSPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)

この手順では clsetup ユーティリティーを使用して、関連付けられた VxVM ディスクグループを Sun Cluster デバイスグループとして登録します。


注 –

デバイスグループをクラスタに登録したあとは、VxVM コマンドを使用して VxVM ディスクグループをインポートまたはエクスポートしないでください。VxVM ディスクグループやボリュームに変更を加えた場合は、「SPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)」の手順に従って、デバイスグループの構成変更を登録してください。この手順によって、グローバルな名前空間が正しい状態になります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

始める前に

VxVM デバイスグループの登録前に、次の必要条件が満たされていることを確認します。

優先順位を定義する際には、もっとも優先されるノードに障害が発生し、のちにクラスタに戻った場合に、デバイスグループをそのノードにスイッチバックするかどうかも指定します。

ノードの優先順位とフェイルバックのオプションの詳細については、cldevicegroup(1CL) を参照してください。

主ノード以外のクラスタノード (スペア) から二次ノードへの移行ノードの優先順位では通常、デバイスグループの二次ノードのデフォルト数は 1 に設定されます。デフォルトの設定では、主ノードが通常の動作中に複数の二次ノードをチェックすることによって発生する性能の低下を最小限に抑えます。たとえば、4 ノードクラスタでは、デフォルトで、1 つが主ノード、1 つが二次ノード、そして 2 つがスペアノードに構成されます。「デバイスグループの二次ノードの希望数を設定する」も参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  3. VxVM デバイスグループを使用して作業するには、デバイスグループおよびボリュームのオプションに対応する数を入力します。

    「デバイスグループメニュー」が表示されます。

  4. VxVM デバイスグループを登録するために、VxVM ディスクグループをデバイスグループとして登録するためのオプションに対応する数を入力します。

    指示に従って、Sun Cluster デバイスグループとして登録する VxVM ディスクグループの名前を入力します。

    このデバイスグループがストレージベースの複製を使用して複製されている場合、この名前は TrueCopy 複製グループ名と一致する必要があります。

    VxVM を使用して Oracle Parallel Server/Oracle RAC 用に共有ディスクグループを設定する場合は、クラスタフレームワークには共有ディスクグループを登録しません。『VERITAS Volume Manager Administrator's Reference Guide』に説明されている VxVM のクラスタ機能を使用します。

  5. デバイスグループを登録しようとしたときに、次のようなエラーが表示された場合は、デバイスグループに新しいマイナー番号を割り当てます。


    scconf: Failed to add device group - in use

    デバイスグループに新しいマイナー番号を割り当てるには、「SPARC: デバイスグループに新しいマイナー番号を割り当てる (VERITAS Volume Manager)」の手順を使用してください。この手順によって、既存のデバイスグループが使用しているマイナー番号と衝突しない、新しいマイナー番号を割り当てることができます。

  6. 複製されたデバイスグループを構成している場合は、そのデバイスグループの複製プロパティーを設定します。


    # cldevicegroup sync devicegroup
    
  7. デバイスグループが登録され、オンラインになったことを確認します。

    デバイスグループが適切に登録されている場合、次のコマンドを使用すると、新しいデバイスグループの情報が表示されます。


    # cldevicegroup status devicegroup
    

    注 –

    VxVM ディスクグループ、または、クラスタに登録されているボリュームの構成情報を変更した場合、clsetup を使用してデバイスグループを同期化する必要があります。このような構成変更には、ボリュームの追加や削除、既存ボリュームのグループ、所有者、アクセス権の変更などがあります。構成変更後に登録を行うと、グローバルな名前空間が正しい状態になります。「グローバルデバイス名前空間を更新する」を参照してください。



例 5–24 SPARC: VERITAS Volume Manager デバイスグループの登録

次に、clsetup で VxVM デバイスグループ (dg1) を登録する際に生成される cldevicegroup コマンドの例と、その検証手順を示します。この例では、VxVM ディスクグループとボリュームは以前に作成されたものと想定しています。


# clsetup

# cldevicegroup create -t vxvm -n phys-schost-1,phys-schost-2 -p failback=true dg1


# cldevicegroup status dg1

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary        Secondary      Status
-----------------    -------        ---------      ------
dg1                  phys-schost-1  phys-schost-2  Online

参照

VxVM デバイスグループ上にクラスタファイルシステムを作成する場合は、「クラスタファイルシステムを追加する」を参照してください。

マイナー番号に問題が発生した場合は、「SPARC: デバイスグループに新しいマイナー番号を割り当てる (VERITAS Volume Manager)」を参照してください。

ProcedureSPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)

VxVM ディスクグループやボリュームの構成情報を変更したときは、Sun Cluster デバイスグループに構成変更を登録する必要があります。この登録によって、グローバルな名前空間が正しい状態になります。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  3. VxVM デバイスグループを使用して作業するには、デバイスグループおよびボリュームのオプションに対応する数を入力します。

    「デバイスグループメニュー」が表示されます。

  4. 構成変更を登録するには、VxVM デバイスグループのボリューム情報を同期化するためのオプションに対応する数を入力します。

    指示に従って、構成を変更した VxVM ディスクグループ名を入力します。


例 5–25 SPARC: VERITAS Volume Manager ディスクグループの構成の変更の登録

次に、clsetup で VxVM デバイスグループ (dg1) を登録する際に生成される cldevicegroup コマンドの例を示します。この例では、VxVM ディスクグループとボリュームは以前に作成されたものと想定しています。


# clsetup
 
cldevicegroup sync dg1

Procedureローカルディスクグループをデバイスグループに変換する (VxVM)

ローカル VxVM ディスクグループをグローバルにアクセス可能な VxVM デバイスグループに変更するには、次の手順を実行します。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    
  3. localonly プロパティーの設定を解除します。

    1. メニュー項目「デバイスグループとボリューム」を選択します。

    2. メニュー項目「ローカルディスクグループの VxVM ディスクグループへの再設定」を選択します。

    3. 指示に従い、localonly プロパティーの設定を解除します。

  4. ディスクグループをマスターできるノードを指定します。

    1. clsetup ユーティリティーのメインメニューに戻ります。

    2. メニュー項目「デバイスグループとボリューム」を選択します。

    3. メニュー項目「VxVM ディスクグループをデバイスグループとして登録」を選択します。

    4. 指示に従い、ディスクグループをマスターできるノードを指定します。

    5. 完了後 clsetup ユーティリティーを終了します。

  5. デバイスグループが構成されていることを確認します。


    phys-schost# cldevicegroup show
    

Procedureデバイスグループをローカルディスクグループに変換する (VxVM)

VxVM デバイスグループを、Sun Cluster ソフトウェアにより管理されていないローカル VxVM ディスクグループに変更するには、次の手順を実行します。ローカルディスクグループはそのノードリストに複数のノードを持つことができますが、一度に 1 つのノードによってのみマスターできます。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. デバイスグループをオフラインにします。


    phys-schost# cldevicegroup offline devicegroup
    
  3. デバイスグループを登録解除します。

    1. clsetup ユーティリティーを起動します。


      phys-schost# clsetup
      
    2. メニュー項目「デバイスグループとボリューム」を選択します。

    3. メニュー項目「VxVM デバイスグループを登録を解除」を選択します。

    4. 指示に従い、Sun Cluster ソフトウェアから登録を解除する VxVM ディスクグループを指定します。

    5. clsetup ユーティリティーを終了します。

  4. ディスクグループが Sun Cluster ソフトウェアに登録されていないことを確認します。


    phys-schost# cldevicegroup status
    

    コマンド出力には、登録を解除されたデバイスグループは表示されなくなるはずです。

  5. ディスクグループをインポートします。


    phys-schost# vxdg import diskgroup
    
  6. ディスクグループの localonly プロパティーを設定します。

    1. clsetup ユーティリティーを起動します。


      phys-schost# clsetup
      
    2. メニュー項目「デバイスグループとボリューム」を選択します。

    3. メニュー項目「VxVM ディスクグループのローカルディスクグループとしての設定」を選択します。

    4. 指示に従い、localonly プロパティーを設定し、ディスクグループを排他的にマスターする 1 つのノードを指定します。

    5. 完了後 clsetup ユーティリティーを終了します。

  7. ディスクグループが正しくローカルディスクグループとして構成されていることを確認します。


    phys-schost# vxdg list diskgroup
    

ProcedureSPARC: デバイスグループからボリュームを削除する (VERITAS Volume Manager)


注 –

デバイスグループからボリュームを削除したあとは、「SPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)」の手順に従って、デバイスグループに構成の変更を登録する必要があります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.modify を提供する役割になります。

  2. デバイスグループの主ノードと状態を確認します。


    # cldevicegroup status devicegroup
    
  3. デバイスグループがオフラインのときは、オンラインにします。


    # cldevicegroup online devicegroup
    
  4. 主ノード (デバイスグループを現在マスターしているノード) から、ディスクグループの VxVM ボリュームを削除します。


    # vxedit -g diskgroup -rf rm volume
    
    -g diskgroup

    ボリュームが含まれる VxVM ディスクグループを指定します。

    -rf rm volume

    指定したボリュームを削除します。-r オプションは、処理を再帰的に繰り返す指定です。-f オプションは、有効に設定されているボリュームを削除する場合に必要です。

  5. clsetup ユーティリティーを使用して、デバイスグループの構成変更を登録し、グローバルな名前空間を更新します。

    「SPARC: ディスクグループの構成変更を登録する (VERITAS Volume Manager)」を参照してください。

ProcedureSPARC: デバイスグループを削除して登録を解除する (VERITAS Volume Manager )

Sun Cluster デバイスグループを削除すると、対応する VxVM ディスクグループはエクスポートされます (消去されるわけではない)。ただし、VxVM ディスクグループが引き続き存在していても、再登録しないかぎりクラスタで使用することはできません。

次の手順では、clsetup ユーティリティーを使用して、VxVM ディスクグループを削除し、Sun Cluster デバイスグループから登録を解除します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. デバイスグループをオフラインにします。


    # cldevicegroup offline devicegroup
    
  3. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  4. VxVM デバイスグループを使用して作業するには、デバイスグループおよびボリュームのオプションに対応する数を入力します。

    「デバイスグループメニュー」が表示されます。

  5. VxVM ディスクグループを登録解除するには、VxVM デバイスグループを登録解除するためのオプションに対応する数を入力します。

    指示に従って、登録を解除する VxVM ディスクグループの名前を入力します。


例 5–26 SPARC: VERITAS Volume Manager デバイスグループの削除および登録の解除

次に、VxVM デバイスグループ dg1 をオフラインにして、デバイスグループの削除および登録解除の際に clsetup により生成されるcldevicegroup コマンドの例を示します。


# cldevicegroup offline dg1
# clsetup

   cldevicegroup delete dg1

ProcedureSPARC: デバイスグループにノードを追加する (VERITAS Volume Manager)

この手順では、clsetup ユーティリティーを使用してディスクデバイスグループにノードを追加します。

VxVM デバイスグループにノードを追加するには以下が必要です。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.modify を提供する役割になります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  3. VxVM デバイスグループを使用して作業するには、デバイスグループおよびボリュームのオプションに対応する数を入力します。

    「デバイスグループメニュー」が表示されます。

  4. VxVM デバイスグループにノードを追加するには、VxVM デバイスグループへノードを追加するためのオプションに対応する数を入力します。

    指示に従って、デバイスグループ名とノード名を入力します。

  5. ノードが追加されたことを確認します。

    次のコマンドを実行し、表示される新しいディスクのデバイスグループ情報を確認します。


    # cldevicegroup show devicegroup 
    

例 5–27 SPARC: VERITAS Volume Manager デバイスグループへのノードの追加

次に、clsetup でノード (phys-schost-3) を VxVM デバイスグループ (dg1) に追加する際に生成される scconf コマンドと、その検証手順の例を示します。


# clsetup
 
cldevicegroup add-node -n phys-schost-3 dg1
  
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VxVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-3
  preferenced:                              no
  numsecondaries:                           1
  diskgroup names:                             dg1

ProcedureSPARC: デバイスグループからノードを削除する (VERITAS Volume Manager)

VERITAS Volume Manager (VxVM) デバイスグループ (ディスクグループ) の潜在的な主ノードリストからクラスタノードを削除する場合は、この手順を使用します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. ノードがまだグループのメンバーであり、かつ、グループが VxVM デバイスグループであることを確認します。

    デバイスグループタイプ VxVM は VxVM デバイスグループを示します。


    phys-schost-1% cldevicegroup show devicegroup
    
  2. 現在のクラスタメンバーノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.modify を提供する役割になります。

  3. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  4. デバイスグループを再構成する場合は、デバイスグループおよびボリュームのオプションに対応する数を入力します。

  5. VxVM デバイスグループからノードを削除する場合は、VxVM デバイスグループからノードを削除するためのオプションに対応する数を入力します。

    プロンプトに従って、デバイスグループからクラスタノードを削除します。次の情報を入力するよう求められます。

    • VxVM のデバイスグループ

    • ノード名

  6. ノードが VxVM デバイスグループ (複数可) から削除されていることを確認します。


    # cldevicegroup show devicegroup
    

例 5–28 SPARC: デバイスグループからノードを削除する (VxVM)

この例では、dg1 という VxVM のデバイスグループから phys-schost-1 というノードを削除します。


[Determine the VxVM device group for the node:]
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VXVM
  failback:                                 no
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              no
  numsecondaries:                           1
  diskgroup names:                             dg1
[Become superuser and start the clsetup utility:]
# clsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.

Answer the questions when prompted. 
You will need the following information.
  Name:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1

[Verify that the cldevicegroup command executed properly:]
 cldevicegroup remove-node -n phys-schost-1 dg1
 
    Command completed successfully.
Dismiss the clsetup  Device Groups Menu and Main Menu.
[Verify that the node was removed:]
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VXVM
  failback:                                 no
  Node List:                                phys-schost-2
  preferenced:                              no
  numsecondaries:                           1
  device names:                             dg1

Procedureraw ディスクデバイスグループからノードを削除する

raw ディスクデバイスグループの潜在的主ノードリストからクラスタノードを削除する場合は、この手順を使用します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタ内のノード、ただし削除するノード以外のノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.modify を提供する役割になります。

  2. 削除されるノードに接続されたデバイスグループを特定し、どれが raw ディスクデバイスグループであるかを判別します。


    # cldevicegroup show -n nodename -t rawdisk +
    
  3. すべての Local_Disk raw ディスクデバイスグループの localonly プロパティーを無効にします。


    # cldevicegroup set -p localonly=false devicegroup
    

    localonly プロパティーの詳細については、cldevicegroup(1CL) のマニュアルページを参照してください。

  4. 削除するノードに接続されているすべての raw ディスクデバイスグループの localonly プロパティーが無効になっていることを確認します。

    デバイスグループタイプ Disk は、この raw ディスクデバイスグループの localonly プロパティーが無効になっていることを表します。


    # cldevicegroup show -n nodename -t rawdisk -v + 
    
  5. 手順 2 で特定されたすべての raw ディスクデバイスグループからノードを削除します。

    この手順は、削除するノードに接続されている raw ディスクデバイスグループごとに行う必要があります。


    # cldevicegroup remove-node -n nodename devicegroup
    

例 5–29 SPARC: raw デバイスグループからノードを削除する

この例では、raw ディスクデバイスグループからノード (phys-schost-2) を削除します。すべてのコマンドは、クラスタの別のノード (phys-schost-1) から実行します。


[Identify the device groups connected to the node being removed, and determine which are 
raw-disk device groups:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk -v +	
Device Group Name:                              dsk/d4
  Type:                                           Disk
  failback:                                       false
  Node List:                                      phys-schost-2
  preferenced:                                    false
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  device names:                                   phys-schost-2

Device Group Name:                              dsk/d2
  Type:                                           VxVM
  failback:                                       true
  Node List:                                      pbrave2
  preferenced:                                    false
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  diskgroup name:                                 vxdg1

Device Group Name:                              dsk/d1
  Type:                                           SVM
  failback:                                       false
  Node List:                                      pbrave1, pbrave2
  preferenced:                                    true
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  diskset name:                                   ms1
(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# cldevicegroup set -p localonly=false dsk/d4
[Verify that the localonly flag is disabled:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk +   
 (dsk/d4) Device group type:          Disk
 (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw-disk device groups:]

phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d4
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d2
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d1

Procedureデバイスグループのプロパティーを変更する

デバイスグループの主所有権を確立する方法は、preferenced という所有権設定属性の設定にもとづきます。この属性を設定していない場合は、ほかで所有されていないデバイスグループの主所有者が、そのグループ内のディスクへのアクセスを試みる最初のノードになります。一方、この属性を設定してある場合は、ノードが所有権の確立を試みる優先順位を指定する必要があります。

preferenced 属性を無効にすると、failback 属性も自動的に無効に設定されます。ただし、preferenced 属性を有効または再有効にする場合は、failback 属性を有効にするか無効にするかを選択できます。

preferenced 属性を有効または再有効にした場合は、主所有権の設定一覧でノードの順序を確立し直す必要があります。

次の手順では、clsetup を使用し、Solaris Volume Manager または VxVM デバイスグループの、preferenced 属性と failback 属性を設定または設定解除します。

始める前に

この手順を実行するには、属性値を変更するデバイスグループの名前が必要です。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.modify を提供する役割になります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  3. デバイスグループを使用して作業するには、デバイスグループおよびボリュームのオプションに対応する数を入力します。

    「デバイスグループメニュー」が表示されます。

  4. デバイスグループの重要なプロパティーを変更するには、VxVM または Solaris Volume Manager デバイスグループの重要なプロパティーを変更するためのオプションに対応する数を入力します。

    「デバイスグループのプロパティー変更メニュー」が表示されます。

  5. デバイスグループのプロパティーを変更するには、preferenced/failback プロパティーを変更するためのオプションに対応する数を入力します。

    指示に従って、デバイスグループの preferenced および failback オプションを設定します。

  6. デバイスグループの属性が変更されたことを確認します。

    次のコマンドを実行し、表示されるデバイスグループ情報を確認します。


    # cldevicegroup show -v devicegroup 
    

例 5–30 デバイスグループのプロパティーの変更

次に、clsetup でデバイスグループ (dg-schost-1) の属性値を設定したときに生成される cldevicegroup コマンドの例を示します。


# cldevicegroup set -p preferenced=true -p failback=true -p numsecondaries=1 \
-p nodelist=phys-schost-1,phys-schost-2 dg-schost-1
# cldevicegroup show dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1

Procedureデバイスグループの二次ノードの希望数を設定する

numsecondaries プロパティーは、主ノードに障害が発生した場合にグループをマスターできる、デバイスグループ内のノード数を指定します。デバイスサービスの二次ノードのデフォルト数は 1 です。この値には、1 からデバイスグループ内で動作している主ノード以外のプロバイダノード数までの任意の整数を設定できます。

この設定は、クラスタの性能と可用性のバランスをとるための重要な要因になります。たとえば、二次ノードの希望数を増やすと、クラスタ内で同時に複数の障害が発生した場合でも、デバイスグループが生き残る可能性が増えます。しかし、二次ノード数を増やすと、通常の動作中の性能が一様に下がります。通常、二次ノード数を減らすと、性能が上がりますが、可用性が下がります。しかし、二次ノード数を増やしても、必ずしも、当該のファイルシステムまたはデバイスグループの可用性が上がるわけではありません。詳細については、『Sun Cluster の概念 (Solaris OS 版)』の第 3 章「重要な概念 - システム管理者とアプリケーション開発者」を参照してください。

numsecondaries プロパティーを変更すると、二次ノードの実際数と希望数の間に整合性がない場合、二次ノードはデバイスグループに追加されるか、またはデバイスグループから削除されます。

この手順では、clsetup ユーティリティーを使用して、すべてのタイプのデバイスグループの numsecondaries プロパティーを設定します。デバイスグループを構成する際のデバイスグループのオプションの詳細については、cldevicegroup(1CL) を参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read および solaris.cluster.modify を提供する役割になります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  3. デバイスグループを使用して作業するため、「デバイスグループとボリューム」というラベルのオプションを選択します。

    「デバイスグループメニュー」が表示されます。

  4. デバイスグループの重要なプロパティーを変更するには、「デバイスグループのキープロパティを変更」というラベルのオプションを選択します。

    「デバイスグループのプロパティー変更メニュー」が表示されます。

  5. 二次ノードの希望数を変更するには、numsecondaries プロパティーを変更するためのオプションに対応する数を入力します。

    指示に従って、デバイスグループに構成したい二次ノードの希望数を入力します。対応する cldevicegroup コマンドが実行され、ログが出力され、ユーティリティーは前のメニューに戻ります。

  6. デバイスグループの構成を検証します。


    # cldevicegroup show dg-schost-1
    === Device Groups ===                          
    
    Device Group Name:                    dg-schost-1
      Type:                                 VxVm  This might also be SDS or Local_Disk.
      failback:                             yes
      Node List:                            phys-schost-1, phys-schost-2 phys-schost-3
      preferenced:                          yes
      numsecondaries:                       1
      diskgroup names:                         dg-schost-1

    注 –

    VxVM ディスクグループ、または、クラスタに登録されているボリュームの構成情報を変更した場合、clsetup を使用してデバイスグループを再登録する必要があります。このような構成変更には、ボリュームの追加や削除、既存ボリュームのグループ、所有者、アクセス権の変更などがあります。構成変更後に登録を行うと、グローバルな名前空間が正しい状態になります。「グローバルデバイス名前空間を更新する」を参照してください。


  7. デバイスグループの属性が変更されたことを確認します。

    次のコマンドを実行して、表示されるデバイスグループ情報を確認します。


    # cldevicegroup show -v devicegroup 
    

例 5–31 二次ノードの希望数の変更 (Solstice DiskSuite または Solaris ボリュームマネージャー)

次に、デバイスグループ (dg-schost-1) の二次ノードの希望数を構成するときに、clsetup によって生成される cldevicegroup コマンドの例を示します。この例では、ディスクグループとボリュームは以前に作成されているものと想定しています。


# cldevicegroup set -p numsecondaries=1 dg-schost-1
# cldevicegroup show -v dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1


例 5–32 SPARC: 二次ノードの希望数の設定 (VERITAS Volume Manager)

次に、デバイスグループ (dg-schost-1) の二次ノードの希望数を 2 に設定するときに、clsetup によって生成される cldevicegroup コマンドの例を示します。デバイスグループを作成したあとで二次ノードの希望数を変更する方法については、「デバイスグループの二次ノードの希望数を設定する」を参照してください。


# cldevicegroup set -p numsecondaries=2 dg-schost-1

# cldevicegroup show dg-schost-1
=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     VxVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskgroup names:                             dg-schost-1 


例 5–33 二次ノードの希望数のデフォルト値への設定

次に、ヌル文字列値を使用して、二次ノードのデフォルト数を構成する例を示します。デバイスグループは、デフォルト値が変更されても、デフォルト値を使用するように構成されます。


# cldevicegroup set -p numsecondaries= dg-schost-1
# cldevicegroup show -v dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2 phys-schost-3
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1

Procedureデバイスグループ構成の一覧を表示する

構成の一覧を表示するために、スーパーユーザーになる必要はありません。ただし、solaris.cluster.read の権限は必要です。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. 次に示されている方法のどれかを選択してください。

    Sun Cluster Manager GUI

    詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。

    cldevicegroup show

    cldevicegroup show を使用して、クラスタ内のすべてのデバイスグループの構成を一覧表示します。

    cldevicegroup show devicegroup

    cldevicegroup show devicegroup を使用して、1 つのデバイスグループの構成を一覧表示します。

    cldevicegroup status devicegroup

    cldevicegroup status devicegroup を使用して、1 つのデバイスグループのステータスを判別します。

    cldevicegroup status +

    cldevicegroup status + を使用して、クラスタ内のすべてのデバイスグループのステータスを判別します。

    詳細情報を表示するには、上記のコマンドと -v オプションを使用します。


例 5–34 すべてのデバイスグループのステータスの一覧表示


# cldevicegroup status +

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary        Status
-----------------    -------         ---------        ------
dg-schost-1          phys-schost-2   phys-schost-1    Online
dg-schost-2          phys-schost-1   --               Offline
dg-schost-3          phys-schost-3   phy-shost-2      Online


例 5–35 特定のデバイスグループの構成の一覧表示


# cldevicegroup show dg-schost-1

=== Device Groups ===                          

Device Group Name:                              dg-schost-1
  Type:                                           SVM
  failback:                                       yes
  Node List:                                      phys-schost-2, phys-schost-3
  preferenced:                                    yes
  numsecondaries:                                 1
  diskset names:                                   dg-schost-1

Procedureデバイスグループの主ノードを切り替える

次の手順は、アクティブでないデバイスグループを起動する (オンラインにする) ときにも使用できます。

Sun Cluster Manager GUI を使用すると、アクティブでないデバイスグループをオンラインにしたり、デバイスグループの主ノードを切り替えることができます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供するプロファイルを使用します。

  2. cldevicegroup switch を使用して、デバイスグループの主ノードを切り替えます。


    # cldevicegroup switch -n nodename devicegroup 
    
    -n nodename

    切り替え先のノードの名前を指定します。このノードが新しい主ノードになります。

    devicegroup

    切り替えるデバイスグループを指定します。

  3. デバイスグループが新しい主ノードに切り替わったことを確認します。

    デバイスグループが適切に登録されている場合、次のコマンドを使用すると、新しいデバイスグループの情報が表示されます。


    # cldevice status devicegroup
    

例 5–36 デバイスグループの主ノードの切り替え

次に、デバイスグループの主ノードを切り替えて変更結果を確認する例を示します。


# cldevicegroup switch -n phys-schost-1 dg-schost-1

# cldevicegroup status dg-schost-1

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary        Secondary       Status
-----------------    -------        ---------       ------
dg-schost-1          phys-schost-1   phys-schost-2  Online

Procedureデバイスグループを保守状態にする

デバイスグループを保守状態にすることによって、デバイスのいずれかにアクセスされたときに、デバイスグループが自動的にオンラインになることを防ぎます。デバイスグループを保守状態にする必要があるのは、修理手順において、修理が終わるまで、すべての入出力活動を停止する必要がある場合などです。また、デバイスグループを保守状態にすることによって、別のノード上のディスクセットまたはディスクグループを修復していても、当該ノード上のデバイスグループはオンラインにならないため、データの損失を防ぎます。


注 –

デバイスグループを保守状態にする前に、そのデバイスへのすべてのアクセスを停止し、依存するすべてのファイルシステムをマウント解除する必要があります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. デバイスグループを保守状態にします。

    1. デバイスグループが有効である場合は、デバイスグループを無効にします。


      # cldevicegroup disable devicegroup
      
    2. デバイスグループをオフラインにします。


      # cldevicegroup offline devicegroup
      
  2. 修理手順を実行するときに、ディスクセットまたはディスクグループの所有権が必要な場合は、ディスクセットまたはディスクグループを手動でインポートします。

    Solaris Volume Manager の場合:


    # metaset -C take -f -s diskset
    

    注意 – 注意 –

    Solaris Volume Manager ディスクセットの所有権を取得する場合、デバイスグループが保守状態にあるときは、metaset -C take コマンドを使用する必要があります。metaset -t を使用すると、所有権の取得作業の一部として、デバイスグループがオンラインになります。VxVM ディスクグループをインポートする場合、ディスクグループをインポートするときは、-t フラグを使用する必要があります。-t フラグを使用することで、当該ノードが再起動した場合に、ディスクグループが自動的にインポートされることを防ぎます。


    VERITAS Volume Manager の場合:


    # vxdg -t import disk-group-name
    
  3. 必要な修理手順を実行します。

  4. ディスクセットまたはディスクグループの所有権を解放します。


    注意 – 注意 –

    デバイスグループを保守状態から戻す前に、ディスクセットまたはディスクグループの所有権を解放する必要があります。所有権を解放しないと、データが失われる可能性があります。


    • Solaris Volume Manager の場合:


      # metaset -C release -s diskset
      
    • VERITAS Volume Manager の場合:


      # vxdg deport diskgroupname
      
  5. デバイスグループをオンラインにします。


    # cldevicegroup online devicegroup
    # cldevicegroup enable devicegroup
    

例 5–37 デバイスグループを保守状態にする

次に、デバイスグループ dg-schost-1 を保守状態にし、保守状態からデバイスグループを削除する方法の例を示します。


[Place the device group in maintenance state.]
# cldevicegroup disable dg-schost-1
# cldevicegroup offline dg-schost-1 
[If needed, manually import the disk set or disk group.]
For Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Complete all necessary repair procedures.]
  
[Release ownership.]
For Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg deport dg1
  
[Bring the device group online.]
# cldevicegroup online dg-schost-1
# cldevicegroup enable dg-schost-1

ストレージデバイス用の SCSI プロトコル設定の管理

Sun Cluster ソフトウェアをインストールすると、自動的に、すべてのストレージデバイスに SCSI リザベーションが割り当てられます。次の手順に従って、複数のデバイスの設定を確認し、必要に応じてデバイスの設定を上書きします。

Procedureすべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を表示する

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. スーパーユーザーになるか、RBAC の承認 solaris.cluster.read を提供する役割になります。

  2. 任意のノードから、現在のグローバルなデフォルト SCSI プロトコル設定を表示します。


    # cluster show -t global
    

    詳細は、cluster(1CL) のマニュアルページを参照してください。


例 5–38 すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定の表示

次の例に、クラスタ上のすべてのステージデバイスの SCSI プロトコル設定を示します。


# cluster show -t global

=== Cluster ===                                

Cluster Name:                                   racerxx
  installmode:                                    disabled
  heartbeat_timeout:                              10000
  heartbeat_quantum:                              1000
  private_netaddr:                                172.16.0.0
  private_netmask:                                255.255.248.0
  max_nodes:                                      64
  max_privatenets:                                10
  global_fencing:                                 scsi3
  Node List:                                      phys-racerxx-1, phys-racerxx-2

Procedure単一ストレージデバイスの SCSI プロトコルを表示する

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. スーパーユーザーになるか、RBAC の承認 solaris.cluster.read を提供する役割になります。

  2. 任意のノードから、ストレージデバイスの SCSI プロトコル設定を表示します。


    # cldevice show device
    
    device

    デバイスパスの名前またはデバイス名。

    詳細は、cldevice(1CL) のマニュアルページを参照してください。


例 5–39 単一デバイスの SCSI プロトコルの表示

次の例に、デバイス /dev/rdsk/c4t8d0 の SCSI プロトコルを示します。


# cldevice show /dev/rdsk/c4t8d0


=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d3
  Full Device Path:                               phappy1:/dev/rdsk/c4t8d0
  Full Device Path:                               phappy2:/dev/rdsk/c4t8d0
  Replication:                                    none
  default_fencing:                                global

Procedureすべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を変更する

あるストレージデバイスのデフォルトのフェンシングが pathcount または scsi3 に設定されている場合、そのデバイスのデフォルトのフェンシング設定は、グローバル設定よりも優先されます。ストレージデバイスのデフォルトのフェンシング設定が global に設定されている場合、ストレージデバイスはグローバル設定を使用します。たとえば、ストレージデバイスのデフォルト設定が pathcount である場合、この手順を使用してグローバルな SCSI プロトコル設定を SCSI3 に変更しても、設定は変更されません。単一デバイスのデフォルト設定を変更するには、「単一ストレージデバイスの SCSI プロトコルを変更する」の手順を使用します。

定足数デバイスのデフォルトのフェンシング設定を変更するには、デバイスの構成を解除し、設定を変更して、定足数デバイスを再構成します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。

  2. 定足数デバイスではないすべてのストレージデバイスの SCSI プロトコルを設定します。


    cluster set -p global_fencing={scsi3 | pathcount}
    -p global_fencing

    すべての共有デバイスの現在のグローバルなデフォルトフェンシングアルゴリズムを設定します。

    scsi3

    SCSI-3 プロトコルを使用します。

    pathcount

    共有デバイスに接続されている DID パスの数でフェンシングプロトコルを決定します。


例 5–40 すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定の設定

次の例では、クラスタ上のすべてのストレージデバイスの SCSI プロトコルを、SCSI-3 プロトコルに設定します。


# cluster set -p global_fencing=scsi3

Procedure単一ストレージデバイスの SCSI プロトコルを変更する

定足数デバイスのデフォルトのフェンシング設定を変更するには、デバイスの構成を解除します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。

  2. ストレージデバイスの SCSI プロトコルを設定します。


    # cldevice set -p default_fencing ={pathcount | scsi3 | global} device
    
    -p

    デバイスのプロパティーを変更します。

    pathcount

    共有デバイスに接続されている DID パスの数でフェンシングプロトコルを決定します。

    scsi3

    SCSI-3 プロトコルを使用します。

    大域 (global)

    グローバルなデフォルトのフェンシング設定を使用します。

    device

    デバイスパスの名前またはデバイス名を指定します。

    詳細は、cluster(1CL) のマニュアルページを参照してください。


例 5–41 単一デバイスの SCSI プロトコルの設定

次の例では、(デバイス番号で指定される) デバイス 11 を SCSI-3 プロトコルに設定します。


# cldevice set -p default_fencing=scsi3 5

クラスタファイルシステムの管理

クラスタファイルシステムは、クラスタのどのノードからでも読み取りやアクセスが可能なグローバルなファイルシステムです。

表 5–5 作業リスト : クラスタファイルシステムの管理

作業 

参照先 

最初の Sun Cluster のインストールのあと、newfs(1M) および mkdir を使用してクラスタファイルシステムを追加する

「クラスタファイルシステムを追加する」

fuser(1M) および umount(1M) を使用してクラスタファイルシステムを削除する

「クラスタファイルシステムを削除する」

ノードにまたがる一貫性を確保するには、sccheck(1M) を使用してクラスタ内のグローバルマウントポイントを確認する

「クラスタ内のグローバルマウントを確認する」

Procedureクラスタファイルシステムを追加する

次の作業は、Sun Cluster の初期インストール後に作成するクラスタファイルシステムごとに実行します。


注意 – 注意 –

必ず、正しいディスクデバイス名を指定してください。クラスタファイルシステムを作成すると、ディスク上のデータはすべて消去されます。デバイス名を誤って指定すると、本来消去する必要のないデータを失うことになります。


クラスタファイルシステムを追加する前に、次の必要条件が満たされていることを確認します。

Sun Cluster Manager を使用してデータサービスをインストールした場合は、クラスタファイルシステムがすでに自動的に作成されています (十分な共有ディスクが存在する場合)。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。


  2. newfs コマンドを使用してファイルシステムを作成します。


    注 –

    newfs コマンドは、新しい UFS ファイルシステムを作成するときだけ有効です。新しい VxFS ファイルシステムを作成する場合は、VxFS マニュアルの手順に従ってください。



    # newfs raw-disk-device
    

    下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

    ボリューム管理ソフトウェア 

    ディスクデバイス名 

    説明 

    Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    oracle メタセット内部の raw ディスクデバイス d1

    SPARC:VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクグループ内部の raw ディスクデバイス vol01

    ありません 

    /dev/global/rdsk/d1s3

    ブロックスライス d1s3 の raw ディスクデバイス

  3. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    クラスタファイルシステムにアクセスしないノードがある場合でも、マウントポイントは各ノードごとに必要です。


    ヒント –

    管理しやすくするために、マウントポイントは /global/devicegroup ディレクトリに作成します。これを使用することによって、グローバルに利用できるクラスタファイルシステムを、ローカルファイルシステムから簡単に判別できるようになります。



    # mkdir -p /global/devicegroup mountpoint
    
    devicegroup

    デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。

    mountpoint

    クラスタファイルシステムのマウント先のディレクトリ名を指定します。

  4. クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。

    1. 以下の必須マウントオプションを使用します。


      注 –

      ロギングはすべてのクラスタファイルシステムに必要です。


      • Solaris UFS ロギング – global,logging マウントオプションを使用します。UFS マウントのオプションの詳細については、mount_ufs(1M) のマニュアルページを参照してください。


        注 –

        syncdir マウントオプションは UFS クラスタファイルシステムには必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。ただし、場合によっては syncdir を指定しないと、ファイ ルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (つまり、POSIX の動作) を指定した場合、空間不足状態はファイルを閉じる前に見つかります。


      • Solaris Volume Manager トランザクションボリューム - global マウントオプションを使用します (logging マウントオプションは使用しないでください)。トランザクションボリュームを設定する方法については、Solaris Volume Manager のマニュアルを参照してください。


        注 –

        将来の Solaris ソフトウェアのリリースでは、トランザクションボリュームは Solaris OS から削除される予定です。Solaris UFS ロギングは、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


      • VxFS ロギング – global および log マウントオプションを使用します。詳細は、VxFS ソフトウェアに付属の mount_vxfs のマニュアルページを参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントしたあとにのみ phys-schost-2 が起動して /global/oracle/logs をマウントできます。

    詳細については、vfstab(4) のマニュアルページを参照してください。

  5. クラスタ内にある任意のノード上で、マウントポイントが存在し、クラスタ内にあるすべてのノード上で /etc/vfstab ファイルのエントリが正しいことを確認します。


     # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  6. クラスタ内にある任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/devicegroup mountpoint
    
  7. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    df または mount のいずれかのコマンドを使用し、マウントされたファイルシステムの一覧を表示します。

    Sun Cluster 環境で VxFS クラスタファイルシステムを管理するには、管理コマンドは VxFS クラスタファイルシステムがマウントされている主ノードから実行する必要があります。


例 5–42 クラスタファイルシステムの追加

次に、Solaris Volume Manager メタデバイスまたはボリューム /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
# /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[save and exit]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001

Procedureクラスタファイルシステムを削除する

クラスタファイルシステムを削除するには、単に、そのクラスタファイルシステムのマウントを解除します。データも削除する場合は、配下のディスクデバイス (またはメタデバイスかボリューム) をシステムから削除します。


注 –

クラスタファイスシステムは、cluster shutdown を実行してクラスタ全体を停止したときに、システム停止処理の一環として自動的にマウント解除されます。shutdown を実行して単独でノードを停止したときはマウント解除されません。なお、停止するノードが、ディスクに接続されている唯一のノードの場合は、そのディスク上のクラスタファイルシステムにアクセスしようとするとエラーが発生します。


クラスタファイルシステムをマウント解除する前に、次の必要条件が満たされていることを確認します。

  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

  2. マウントされているクラスタファイルシステムを確認します。


    # mount -v
    
  3. 各ノードで、クラスタファイルシステムを使用中の全プロセスの一覧を表示し、停止するプロセスを判断します。


    # fuser -c [ -u ] mountpoint
    
    -c

    ファイルシステムのマウントポイントとなっているファイルと、マウントされているファイルシステム内のファイルがすべて表示されます。

    -u

    (任意) 各プロセス ID のユーザーログイン名を表示します。

    mountpoint

    プロセスを停止するクラスタファイルシステムの名前を指定します。

  4. 各ノードで、クラスタファイルシステムのプロセスをすべて停止します。

    プロセスは任意の方法で停止できます。必要であれば、次のコマンドを使用して、クラスタファイルシステムに関係するプロセスを強制終了してください。


    # fuser -c -k mountpoint
    

    クラスファイルシステムを使用している各ノードに SIGKILL が送信されます。

  5. 各ノードで、ファイルシステムを使用しているプロセスがないことを確認します。


    # fuser -c mountpoint
    
  6. 1 つのノードからファイルシステムをマウント解除します。


    # umount mountpoint
    
    mountpoint

    マウント解除するクラスタファイルシステムの名前を指定します。クラスタファイルシステムがマウントされているディレクトリの名前や、ファイルシステムのデバイス名パスを指定できます。

  7. (任意) /etc/vfstab ファイルを編集して、削除するクラスタファイルシステムのエントリを削除します。

    この手順は、/etc/vfstab ファイルにこのクラスタファイルシステムのエントリがある各クラスタノードで実行してください。

  8. (任意) ディスクデバイス group/metadevice/volume/plex を削除します。

    詳細については、ボリューム管理ソフトウェアのマニュアルを参照してください。


例 5–43 クラスタファイルシステムの削除

次に、Solaris Volume Manager メタデバイスまたはボリューム /dev/md/oracle/rdsk/d1 にマウントされた UFS クラスタファイルシステムを削除する例を示します。


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(On each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[Save and exit.]

クラスタファイルシステム上のデータを削除するには、配下のデバイスを削除します。詳細については、ボリューム管理ソフトウェアのマニュアルを参照してください。


Procedureクラスタ内のグローバルマウントを確認する

sccheck(1M) ユーティリティーを使用して、/etc/vfstab ファイル内のクラスタファイルシステムのエントリの構文を確認します。エラーが発生していない場合は、何も戻されません。


注 –

sccheck は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更 (クラスタファイルシステムの削除など) をクラスタ構成に加えたあとで実行します。


  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

  2. クラスタのグローバルマウントを確認します。


     # sccheck
    

ディスクパス監視の管理

ディスクパス監視 (DPM) の管理コマンドを使用すれば、二次ディスクパス障害の通知を受け取ることができます。この節では、ディスクパスの監視に必要な管理作業を行うための手順を説明します。ディスクパス監視デーモンの概念については、『Sun Cluster の概念 (Solaris OS 版)』の第 3 章「重要な概念 - システム管理者とアプリケーション開発者」を参照してください。scdpm コマンドのオプションと関連するコマンドについては、cldevice(1CL) のマニュアルページを参照してください。デーモンが報告するロギングされたエラーについては、syslogd(1M) のマニュアルページを参照してください。


注 –

cldevice コマンドを使ってノードに入出力デバイスを追加すると、監視を行なっていた監視リストにディスクパスが自動的に追加されます。Sun Cluster コマンドを使ってノードからデバイスを削除すると、 ディスクパスは自動的に監視から除外されます。


表 5–6 作業マップ: ディスクパス監視の管理

作業 

参照先 

cldevice monitor コマンドを使用してディスクパスを監視する

「ディスクパスを監視する」

cldevice unmonitor コマンドを使用してディスクパスの監視を解除する

「ディスクパスの監視を解除する方法」

cldevice status コマンドを使用して、あるノードの、障害が発生したディスクパスのステータスを出力する

「障害のあるディスクパスを表示する」

cldevice コマンドを使用してファイルからディスクパスを監視する

「ファイルからディスクパスを監視する」

clnode set コマンドを使用して、すべての監視対象ディスクパスに障害が発生した場合、ノードの自動再起動を有効または無効にする

「すべての監視対象ディスクパスに障害が発生した場合のノードの自動再起動を有効にする」

「すべての監視対象ディスクパスに障害が発生した場合のノードの自動再起動を無効にする」

不正なディスクパス状態を解決します。起動時に監視対象の DID デバイスを利用できず、DID インスタンスが DID ドライバにアップロードされない場合、不正なディスクパス状態が報告されることがあります。 

「ディスクパスの状態エラーを解決する」

cldevice コマンドを実行する以下のセクションの手順にはディスクパス引数が含まれます。ディスクパス引数はノード名とディスク名からなります。ただし、ノード名は必須ではありません。指定しないと、all が使用されます。

Procedureディスクパスを監視する

この作業は、クラスタのディスクパスを監視するときに行います。


注意 – 注意 –

DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. ディスクパスを監視します。


    # cldevice monitor -n node disk
    
  3. ディスクパスが監視されているか確認します。


    # cldevice status device
    

例 5–44 単一ノードのディスクパスを監視

次の例では、単一ノードから schost-1:/dev/did/rdsk/d1 ディスクパスを監視します。ディスク /dev/did/dsk/d1 へのパスを監視するのは、ノード schost-1 上の DPM デーモンだけです。


# cldevice monitor -n schost-1 /dev/did/dsk/d1
# cldevice status d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok


例 5–45 すべてのノードのディスクパスを監視

次の例では、すべてのノードから schost-1:/dev/did/dsk/d1 ディスクパスを監視します。DPM は、/dev/did/dsk/d1 が有効なパスであるすべてのノードで起動されます。


# cldevice monitor /dev/did/dsk/d1
# cldevice status /dev/did/dsk/d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok


例 5–46 CCR からディスク構成を読み直す

次の例では、デーモンが CCR からディスク構成を読み直し、監視されているディスクパスをそのステータスとともに出力します。


# cldevice monitor +
# cldevice status
Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-1           Ok
/dev/did/rdsk/d2             schost-1           Ok
/dev/did/rdsk/d3             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d4             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d5             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d6             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d7             schost-2           Ok
/dev/did/rdsk/d8             schost-2           Ok

Procedureディスクパスの監視を解除する方法

ディスクパスの監視を解除する場合は、この手順を使用します。


注意 – 注意 –

DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. 監視を解除するディスクパスの状態を調べます。


    # cldevice status device
    
  3. 各ノードで、適切なディスクパスの監視を解除します。


    # cldevice unmonitor -n node disk
    

例 5–47 ディスクパスの監視解除

次の例では、schost-2:/dev/did/rdsk/d1 ディスクパスの監視を解除し、クラスタ全体のディスクパスの一覧とそのステータスを出力します。


# cldevice unmonitor -n schost2 /dev/did/rdsk/d1
# cldevice status -n schost2 /dev/did/rdsk/d1

Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-2           Unmonitored

Procedure障害のあるディスクパスを表示する

クラスタに障害のあるディスクパスを表示する場合は、次の手順を使用します。


注意 – 注意 –

DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。


  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

  2. 全クラスタ内の障害のあるディスクパスを表示します。


    # cldevice status -s fail
    

例 5–48 障害のあるディスクパスを表示する

次の例では、全クラスタ内の障害のあるディスクパスを表示します。


# cldevice status -s fail
     
Device Instance               Node              Status
---------------               ----              ------
dev/did/dsk/d4                phys-schost-1     fail

Procedureディスクパスの状態エラーを解決する

次のイベントが発生すると、DPM が障害の発生したパスがオンラインになっても、そのパスの状態を更新しない可能性があります。

起動時に監視対象の DID デバイスを利用できず、このため DID インスタンスが DID ドライバにアップロードされないため、不正なディスクパス状態が報告されます。このような状態が発生する場合は、手動で DID 情報を更新します。

  1. 一方のノードから、グローバルデバイス名前空間を更新します。


    # cldevice populate
    
  2. 次の手順に進む前に、各ノードでコマンド処理が完了していることを確認します。

    このコマンドは、1 つのノードからのみ実行されても、リモートからすべてのノードで実行されます。コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。


    # ps -ef | grep scgdevs
    
  3. DPM ポーリングタイムフレーム内で障害の発生したディスクパスの状態が OK になっていることを確認します。


    # cldevice status disk-device
    
    Device Instance               Node                  Status
    ---------------               ----                  ------
    dev/did/dsk/dN                phys-schost-1         Ok

Procedureファイルからディスクパスを監視する

ファイルを使ってディスクパスを監視したり、その監視を解除する場合は、次の手順を使用します。

ファイルを使用してクラスタ構成を変更するには、まず現在の構成をエクスポートします。このエクスポート操作により XML ファイルが作成されます。このファイルは、変更する構成項目を設定するために修正できます。この手順では、このプロセス全体を説明します。


注意 – 注意 –

DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. デバイス構成を XML ファイルにエクスポートします。


    # cldevice export -o configurationfile
    
    -o configurationfile

    XML ファイルのファイル名を指定します。

  3. デバイスパスが監視されるよう、構成ファイルを変更します。

    監視するデバイスパスを検索し、monitored 属性を true に設定します。

  4. デバイスパスを監視します。


    # cldevice monitor -i configurationfile
    
    -i configurationfile

    変更された XML ファイルのファイル名を指定します。

  5. この時点でデバイスパスが監視されていることを確認します。


    # cldevice status
    

例 5–49 ファイルからディスクパスを監視する

次の例では、ノード phys-schost–2 とデバイス d3 の間のデバイスパスが、XML ファイルを使用することによって監視されています。

最初に、現在のクラスタ構成をエクスポートします。


# cldevice export -o deviceconfig

deviceconfig XML ファイルは、phys-schost–2d3 の間のパスが現在は監視されていないことを示しています。


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="false"/>
    </device>
  </deviceList>
</cluster>

そのパスを監視するには、次のように、監視される attributetrue に設定します。


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="true"/>
    </device>
  </deviceList>
</cluster>

cldevice コマンドを使用して、ファイルを読み込み、監視を有効にします。


# cldevice monitor -i deviceconfig

cldevice コマンドを使用して、この時点でデバイスが監視されていることを確認します。


# cldevice status

参照

クラスタ構成のエクスポート、および結果の XML ファイルを使用したクラスタ構成の設定の詳細については、cluster(1CL) およびclconfiguration(5CL) のマニュアルページを参照してください。

Procedureすべての監視対象ディスクパスに障害が発生した場合のノードの自動再起動を有効にする

この機能を有効にすると、次の条件が満たされる場合、ノードは自動的に再起動します。

ノードが再起動すると、そのノード上でマスターされているすべてのリソースグループとデバイスグループが別のノード上で再起動します。

ノードが自動再起動したあと、ノード上のすべての監視対象ディスクパスがアクセス不能のままである場合、そのノードは再び自動再起動しません。しかし、ノードが再起動したが失敗したあとに、利用可能になったディスクパスがある場合、そのノードは再び自動再起動します。

  1. クラスタ内の任意のノードで、スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。

  2. クラスタ内のすべてのノードに対して、ノードへのすべての監視対象ディスクパスに障害が発生した場合の、ノードの自動再起動を有効にします。


    # clnode set -p reboot_on_path_failure=enabled +
    

Procedureすべての監視対象ディスクパスに障害が発生した場合のノードの自動再起動を無効にする

この機能を無効にすると、あるノード上のすべての監視対象ディスクパスに障害が発生しても、ノードは自動的には再起動しません。

  1. クラスタ内の任意のノードで、スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。

  2. クラスタ内のすべてのノードに対して、ノードへのすべての監視対象ディスクパスに障害が発生した場合の、ノードの自動再起動を無効にします。


    # clnode set -p reboot_on_path_failure=disabled +