Sun Cluster 2.2 のシステム管理

障害が発生したノードを交換するには

障害が発生したノードが使用不可能な場合は、手順 5から始めてください。

  1. パラレルデータベース構成の場合は、データベースを停止します。


    注 -

    データサービスについては、該当するマニュアルを参照してください。HA アプリケーションはすべて、scadmin stopnode コマンドで自動的に停止します。


  2. クラスタコンソールを使用して、端末ウィンドウを開きます。

  3. root として、端末ウィンドウに次のコマンドを入力します。

    このコマンドは、クラスタからノードを削除し、Sun Cluster ソフトウェアを停止し、そのノード上のボリュームマネージャを無効にします。

    # scadmin stopnode
     
    
  4. ノード上のオペレーティングシステムを停止します。

    必要に応じて、Solaris のシステム管理のマニュアルを参照してください。

  5. ノードの電源を切ります。

    詳細は、ハードウェアのサービスマニュアルを参照してください。


    注意 - 注意 -

    この時点で、障害が発生したノードからケーブルを抜かないでください。


  6. 障害が発生したノードから、起動ディスクを取り外します。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  7. 起動ディスクを、新しいノードの同一のスロットに差し込みます。

    ルートディスクは、以前と同じアドレスでアクセスできます。詳細は、ハードウェアのサービスマニュアルを参照してください。


    注 -

    新しいノードの IP アドレスが、障害が発生したシステムと同じであることを確認してください。必要に応じて、起動サーバーまたは arp サーバーを変更し、新しい Ethernet アドレスに IP アドレスを割り当て直してください。詳細は、『NIS+ と DNS の設定と構成』を参照してください。


  8. 新しいノードに電源を入れます。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  9. ノードが自動的に起動する場合は、オペレーティングシステムを停止し、システムを OpenBoot PROM モニターの状態にします。

    詳細は、shutdown(1M) のマニュアルページを参照してください。

  10. すべての scsi-initiator-id が正しく設定されているか確認します。

    scsi-initiator-id を設定する詳細な手順については、『Sun Cluster 2.2 Hardware Site Preparation, Planning, and Installation Guide』の第 4 章を参照してください。

  11. 新しいノードの電源を切ります。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  12. 多重ホストディスクを障害が発生したノードと共有するほかのノードで、障害が発生したノードに接続されている 1 台のディスク拡張装置内のすべてのディスクを取り外します。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  13. ディスク拡張装置の電源を切ります。

    詳細は、ハードウェアのサービスマニュアルを参照してください。


    注 -

    障害が発生したノードを交換する間、システムコンソールに次のようなメッセージが表示される場合があります。このメッセージは問題についての説明ではない場合があるため、無視してください。



    Nov  3 17:44:00 updb10a unix: WARNING: /sbus@1f,0/SUNW,fas@0,8800000/sd@2,0 (sd17):
    Nov  3 17:44:00 updb10a unix: SCSI transport failed: reason "incomplete": retrying ¥ command
    Nov  3 17:44:03 updb10a unix: WARNING: /sbus@1f,0/SUNW,fas@0,8800000/sd@2,0 (sd17):
    Nov  3 17:44:03 updb10a unix:   disk not responding to selection
  14. 障害が発生したノードから SCSI ケーブルを抜き、新しいノードの対応するスロットに差し込みます。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  15. ディスク拡張装置の電源を入れます。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  16. 手順 12で取り外したディスクをすべて、元のように設置します。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  17. ディスク拡張装置内のすべてのボリュームが回復するのを待ちます。その後、対応するミラーディスク拡張装置を取り外します。

    ボリューム回復がいつ発生したかを確認するには、ボリュームマネージャソフトウェアを使用してください。

  18. 残っているすべてのディスク拡張装置について、手順 12から 手順 17 を繰り返します。

  19. 交換したノード (新しいノード) に電源を入れます。

    詳細は、ハードウェアのサービスマニュアルを参照してください。

  20. ノードを再起動し、システムが起動するのを待ちます。

    <#0> boot
    
  21. 交換したノードの Ethernet アドレスを決定します。


    # /usr/sbin/arp nodename
    
  22. 交換したノードのノード ID を決定します。

    消去法によって、クラスタにどのノードが存在しないかを確認できます。ノード ID は、ノード 0 から始まる連続した番号にする必要があります。


    # get_node_status
    sc: included in running cluster
    node id: 0        
    membership: 0
    interconnect0: unknown
    interconnect1: unknown
    vm_type: vxvm
    vm_on_node: master
    vm: up
    db: down
  23. すべてのクラスタノードで次のコマンドを入力し、クラスタシステムに交換ノードの新しい Ethernet アドレスを知らせます。


    # scconf clustername -N node-id ethernet-address-of-host
    

    手順 22 の例を使用した場合、ノード ID は 1 になります。


    # scconf clustername -N 1 ethernet-address-of-host
    
  24. 交換したノードを起動します。


    # scadmin startnode
    
  25. パラレルデータベース構成の場合は、データベースを再起動します。


    注 -

    データサービスについては、該当するマニュアルを参照してください。HA アプリケーションはすべて、scadmin startcluster コマンドと scadmin startnode コマンドで自動的に起動します。