1 つのノードにハードウェア障害が発生し、新しいノードと交換が必要になった場合は、次の手順に従ってください。
この作業は、障害が発生したノードのルートディスクがまだ使用可能であることを想定しています。障害が発生したルートディスクがミラー化されていない場合は、ご購入先にお問い合わせください。
障害が発生したノードが使用不可能な場合は、手順 5から始めてください。
パラレルデータベース構成の場合は、データベースを停止します。
データサービスについては、該当するマニュアルを参照してください。HA アプリケーションはすべて、scadmin stopnode コマンドで自動的に停止します。
クラスタコンソールを使用して、端末ウィンドウを開きます。
root として、端末ウィンドウに次のコマンドを入力します。
このコマンドは、クラスタからノードを削除し、Sun Cluster ソフトウェアを停止し、そのノード上のボリュームマネージャを無効にします。
# scadmin stopnode |
ノード上のオペレーティングシステムを停止します。
必要に応じて、Solaris のシステム管理のマニュアルを参照してください。
ノードの電源を切ります。
詳細は、ハードウェアのサービスマニュアルを参照してください。
この時点で、障害が発生したノードからケーブルを抜かないでください。
障害が発生したノードから、起動ディスクを取り外します。
詳細は、ハードウェアのサービスマニュアルを参照してください。
起動ディスクを、新しいノードの同一のスロットに差し込みます。
ルートディスクは、以前と同じアドレスでアクセスできます。詳細は、ハードウェアのサービスマニュアルを参照してください。
新しいノードの IP アドレスが、障害が発生したシステムと同じであることを確認してください。必要に応じて、起動サーバーまたは arp サーバーを変更し、新しい Ethernet アドレスに IP アドレスを割り当て直してください。詳細は、『NIS+ と DNS の設定と構成』を参照してください。
新しいノードに電源を入れます。
詳細は、ハードウェアのサービスマニュアルを参照してください。
ノードが自動的に起動する場合は、オペレーティングシステムを停止し、システムを OpenBoot PROM モニターの状態にします。
詳細は、shutdown(1M) のマニュアルページを参照してください。
すべての scsi-initiator-id が正しく設定されているか確認します。
scsi-initiator-id を設定する詳細な手順については、『Sun Cluster 2.2 Hardware Site Preparation, Planning, and Installation Guide』の第 4 章を参照してください。
新しいノードの電源を切ります。
詳細は、ハードウェアのサービスマニュアルを参照してください。
多重ホストディスクを障害が発生したノードと共有するほかのノードで、障害が発生したノードに接続されている 1 台のディスク拡張装置内のすべてのディスクを取り外します。
詳細は、ハードウェアのサービスマニュアルを参照してください。
ディスク拡張装置の電源を切ります。
詳細は、ハードウェアのサービスマニュアルを参照してください。
障害が発生したノードを交換する間、システムコンソールに次のようなメッセージが表示される場合があります。このメッセージは問題についての説明ではない場合があるため、無視してください。
Nov 3 17:44:00 updb10a unix: WARNING: /sbus@1f,0/SUNW,fas@0,8800000/sd@2,0 (sd17): Nov 3 17:44:00 updb10a unix: SCSI transport failed: reason "incomplete": retrying ¥ command Nov 3 17:44:03 updb10a unix: WARNING: /sbus@1f,0/SUNW,fas@0,8800000/sd@2,0 (sd17): Nov 3 17:44:03 updb10a unix: disk not responding to selection |
障害が発生したノードから SCSI ケーブルを抜き、新しいノードの対応するスロットに差し込みます。
詳細は、ハードウェアのサービスマニュアルを参照してください。
ディスク拡張装置の電源を入れます。
詳細は、ハードウェアのサービスマニュアルを参照してください。
手順 12で取り外したディスクをすべて、元のように設置します。
詳細は、ハードウェアのサービスマニュアルを参照してください。
ディスク拡張装置内のすべてのボリュームが回復するのを待ちます。その後、対応するミラーディスク拡張装置を取り外します。
ボリューム回復がいつ発生したかを確認するには、ボリュームマネージャソフトウェアを使用してください。
交換したノード (新しいノード) に電源を入れます。
詳細は、ハードウェアのサービスマニュアルを参照してください。
ノードを再起動し、システムが起動するのを待ちます。
<#0> boot |
交換したノードの Ethernet アドレスを決定します。
# /usr/sbin/arp nodename |
交換したノードのノード ID を決定します。
消去法によって、クラスタにどのノードが存在しないかを確認できます。ノード ID は、ノード 0 から始まる連続した番号にする必要があります。
# get_node_status sc: included in running cluster node id: 0 membership: 0 interconnect0: unknown interconnect1: unknown vm_type: vxvm vm_on_node: master vm: up db: down |
すべてのクラスタノードで次のコマンドを入力し、クラスタシステムに交換ノードの新しい Ethernet アドレスを知らせます。
# scconf clustername -N node-id ethernet-address-of-host |
手順 22 の例を使用した場合、ノード ID は 1 になります。
# scconf clustername -N 1 ethernet-address-of-host |
交換したノードを起動します。
# scadmin startnode |
パラレルデータベース構成の場合は、データベースを再起動します。
データサービスについては、該当するマニュアルを参照してください。HA アプリケーションはすべて、scadmin startcluster コマンドと scadmin startnode コマンドで自動的に起動します。