Sun Cluster 2.2 のシステム管理

SPARCstorage Array ディスクを追加するには (Solstice DiskSuite)

次に、Solstice DiskSuite 構成で多重ホストディスクを追加する手順の概略を示します。

次に、Solstice DiskSuite 構成に新しい多重ホストディスクを追加する詳しい手順を示します。

  1. 新しいディスクを含む予定の論理ホストの所有権を、クラスタ内のほかのノードに切り替えます。

    取り外すトレー内のディスクを含む論理ホストをすべてスイッチオーバーしてください。

    phys-hahost1# haswitch phys-hahost1 hahost1 hahost2
    
  2. ディスクの追加先であるトレーのコントローラ番号を確認します。

    SPARCstorage Array には、WWN が割り当てられています。SPARCstorage Array の LCD 画面に表示される WWN は、コントローラ番号が入った /dev エントリにポインタによってリンクされている /devices エントリの一部としても表示されます。次に例を示します。

    phys-hahost1# ls -l /dev/rdsk | grep -i WWN | tail -1
    

    SPARCstorage Array の LCD 画面に表示される WWN が 36cc の場合は、次の出力が表示されます。コントローラ番号は c2 です。

    phys-hahost1# ls -l /dev/rdsk | grep -i 36cc | tail -1
    lrwxrwxrwx  1 root   root       94 Jun 25 22:39 c2t5d2s7 ->
     ../../devices/io-
     unit@f,e1200000/sbi@0,0/SUNW,soc@3,0/SUNW,pln@a0000800,201836cc/
     ssd@5,2:h,raw
  3. display オプションを指定して luxadm(1M) コマンドを実行し、空のスロットを確認します。

    phys-hahost1# luxadm display c2
     
                          SPARCstorage Array Configuration
     ...
                               DEVICE STATUS
           TRAY 1                 TRAY 2                 TRAY 3
     slot
     1     Drive: 0,0             Drive: 2,0             Drive: 4,0
     2     Drive: 0,1             Drive: 2,1             Drive: 4,1
     3     NO SELECT              NO SELECT              NO SELECT
     4     NO SELECT              NO SELECT              NO SELECT
     5     NO SELECT              NO SELECT              NO SELECT
     6     Drive: 1,0             Drive: 3,0             Drive: 5,0
     7     Drive: 1,1             NO SELECT              NO SELECT
     8     NO SELECT              NO SELECT              NO SELECT
     9     NO SELECT              NO SELECT              NO SELECT
     10    NO SELECT              NO SELECT              NO SELECT
     ...

    空のスロットは、状態が NO SELECT で示されます。この出力例は、SPARCstorage Array 110 のものです。別のシリーズの SPARCstorage Array を使用している場合は、表示が多少異なります。

    新しいディスクを追加するトレーを決定してください。SPARCstorage Array 214 RSM のようにほかのドライブに影響を与えずにディスクを追加できる場合は、手順 11 に進んでください。

    これ以降の手順では、トレー 2 が例として使用されています。新しいディスク用に選択されるスロットは、トレー 2 のスロット 7 です。新しいディスクは、c2t3d1 として認識されます。

  4. ディスクの追加によって影響を受けるホットスペアをすべて見つけます。

    すべてのホットスペアの状態と位置を確認するには、各論理ホストで -i オプションを指定して metahs(1M) コマンドを実行します。

    phys-hahost1# metahs -s hahost1 -i
    ...
     phys-hahost1# metahs -s hahost2 -i
    ...

    注 -

    ホットスペアの一覧を保存してください。この一覧は、後でこの保守作業で使用します。ホットスペアデバイスとそれらのホットスペアプールは必ず書き留めてください。


  5. -d オプションを指定して metahs(1M) コマンドを実行し、影響を受けるホットスペアを削除します。

    metahs(1M) コマンドの詳細は、マニュアルページを参照してください。

    phys-hahost1# metahs -s hahost1 -d hot-spare-pool components
     phys-hahost1# metahs -s hahost2 -d hot-spare-pool components
    
  6. 影響を受けるディスク上に存在するメタデバイス状態データベースの複製をすべて見つけます。

    各論理ホストで metadb(1M) コマンドを実行してすべてのメタデバイス状態データベースを見つけ、出力を一時ファイルに保存してください。

    phys-hahost1# metadb -s hahost1 > /usr/tmp/mddb1
    phys-hahost1# metadb -s hahost2 > /usr/tmp/mddb2
    

    metadb(1M) の出力は、ディスク格納装置内のメタデバイス状態データベースの複製の位置を示します。複製を復元する手順で使用できるように、この情報を保存しておいてください。

  7. 影響を受けるディスク上に存在するメタデバイス状態データベースの複製を削除します。

    後の手順で複製を復元する必要があるため、削除する複製の数とロケールを記録しておいてください。

    phys-hahost1# metadb -s hahost1 -d replicas
    phys-hahost1# metadb -s hahost2 -d replicas
    
  8. metastat(1M) コマンドを実行し、影響を受けるディスク上のすべてのメタデバイスコンポーネントを確認します。

    メタデバイスの削除と再追加を行う場合に情報を使用できるように、metastat(1M) の出力を一時ファイルに保存しておいてください。

    phys-hahost1# metastat -s hahost1 > /usr/tmp/replicalog1
    phys-hahost1# metastat -s hahost2 > /usr/tmp/replicalog2
    
  9. 影響を受けるディスクを含むすべてのサブミラーをオフラインにします。

    ディスク格納装置内の影響を受けるすべてのサブミラーをオフラインにするため、一時ファイルを使用してスクリプトを作成してください。わずかなサブミラーしか存在しない場合は、metaoffline(1M) コマンドを実行し、個々にオフラインにしてください。次にスクリプト例を示します。

    #!/bin/sh
     # metaoffline -s <diskset> <mirror> <submirror>
     
     metaoffline -s hahost1 d15 d35
     metaoffline -s hahost2 d15 d35
     ...
  10. 影響を受けるディスクを停止します。

    luxadm(1M) コマンドを使用して、トレー内の SPARCstorage Array ディスクを停止してください。

    phys-hahost1# luxadm stop -t 2 c2
    
  11. 新しいディスクを追加します。

    多重ホストディスク格納装置のサービスマニュアルに示された方法で、ディスクを追加するためのハードウェア上の作業を行なってください。ディスクを追加した後、次のどちらかを選択してください。

    • ディスク格納装置が SPARCstorage Array 214 RSM の場合は、手順 16に進んでください (このディスクはほかのドライブに影響を与えずに追加が可能です)。

    • 214 RSM 以外の SPARCstorage Array の場合は、手順 12に進んでください。

  12. トレー内のすべてのディスクが起動していることを確認します。

    SPARCstorage Array トレー内のディスクは通常自動的に起動しますが、2 分以内に起動しない場合は、次のコマンドを使用して強制的に起動してください。

    phys-hahost1# luxadm start -t 2 c2
    
  13. サブミラーをオンラインに戻します。

    手順 9 で作成したスクリプトを変更し、サブミラーをオンラインに戻してください。

    #!/bin/sh
     # metaonline -s <diskset> <mirror> <submirror>
     
     metaonline -s hahost1 d15 d35
     metaonline -s hahost2 d15 d35
     ...
  14. 手順 5で削除したホットスペアを復元します。

    phys-hahost1# metahs -s hahost1 -a hot-spare-pool components
    phys-hahost1# metahs -s hahost2 -a hot-spare-pool components
    
  15. 本来の数のメタデバイス状態データベースの複製を、トレー内のデバイスに復元します。

    複製は、手順 7 で削除されています。

    phys-hahost1# metadb -s hahost1 -a replicas
    phys-hahost1# metadb -s hahost2 -a replicas
    
  16. drvconfig(1M)disks(1M) コマンドを実行し、すべての新しいディスクの /devices/dev/dsk/dev/rdsk に新しいエントリを作成します。

    phys-hahost1# drvconfig
    phys-hahost1# disks 
    
  17. このディスクの追加先である論理ホストの所有権を、SPARCstorage Array に接続されているほかのノードに切り替えます。

    これは、各ディスクが 2 つのノードに接続されるトポロジを想定しています。

    phys-hahost1# haswitch phys-hahost2 hahost2
    
  18. このディスクの追加先であるディスクセットを現在所有しているクラスタノードで、drvconfig(1M)disks(1M) コマンドを実行します。

    phys-hahost2# drvconfig
    phys-hahost2# disks 
    
  19. scdidadm(1M) コマンドを実行し、新しいディスクが DID 疑似ドライバによって使用されるように初期化します。

    scdidadm(1M) コマンドは、クラスタのノード 0 で実行する必要があります。DID 疑似ドライバの詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。

    phys-hahost2# scdidadm -r
    
  20. ディスクをディスクセットに追加します。

    コマンド構文を次に示します。diskset には、障害が発生したディスクを含むディスクセットの名前を指定します。drive には、ディスクの DID 名を dN (Sun Cluster を新たにインストールする場合) または cNtYdZ (HA 1.3 からアップグレードする場合) の形式で指定します。

    # metaset -s diskset -a drive
    

    注意 - 注意 -

    metaset(1M) コマンドは、ディスクを自動的に再分割することがあります。詳細は、Solstice DiskSuite のマニュアルを参照してください。


  21. scadmin(1M) コマンドを使用して、ディスクセットに追加した新しいディスクに対してフェイルファストの予約と有効化を行います。

    phys-hahost2# scadmin reserve cNtXdYsZ
    
  22. 新しいディスクに対し、通常の管理作業を行います。

    続いて、新しいドライブをサービスに加えるための通常の管理手順 (ディスクをパーティション分割する、ディスクをホットスペアとして構成に追加する、ディスクをメタデバイスとして構成するなど) を実行できます。これらの作業の詳細は、Solstice DiskSuite のマニュアルを参照してください。

  23. 必要に応じて、論理ホストをそのデフォルトマスターにスイッチバックします。