Sun Cluster 3.0 12/01 のシステム管理

第 6 章 クラスタの管理

この章では、クラスタ全体に影響を与える項目の管理手順について説明します。

この章で説明する手順は次のとおりです。

クラスタ管理の概要

表 6-1 作業リスト : クラスタの管理

作業 

参照箇所 

クラスタの名前を変更する。 

「クラスタ名を変更する」

ノード ID およびそれらの対応するノード名の一覧を表示する。 

「ノード ID をノード名にマップする」

クラスタへの新しいノードの追加を許可または拒否する。 

「新しいクラスタノード認証で作業する」

Network Time Protocol (NTP) を使用してクラスタの時刻を変更する。 

「クラスタの時刻をリセットする」

ノードを停止し、OpenBootTM PROM コマンドを入力する。

「ノードで OpenBoot PROM (OBP) コマンドを入力する」

プライベートホスト名を変更する。 

「プライベートホスト名を変更する」

クラスタノードを保守状態にする。 

「ノードを保守状態にする」

クラスタノードを保守状態から戻す。 

「ノードを保守状態から戻す」

ノードをクラスタに追加する。 

「クラスタノードを認証ノードリストに追加する」

ノードをクラスタから削除する。 

「クラスタノードを認証ノードリストに追加する」

クラスタ名を変更する

必要に応じて、初期インストール後にクラスタ名を変更できます。

  1. クラスタ内の任意のノード上でスーパーユーザーになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

    「Main Menu」が表示されます。

  3. クラスタ名を変更するには、6 (Other cluster properties) を入力します。

    「Other Cluster Properties」メニューが表示されます。

  4. メニューから選択を行って、画面の指示に従います。

例 - クラスタ名の変更

次に、新しいクラスタ名 dromedary に変更するために、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。


# scconf -c -C cluster=dromedary

ノード ID をノード名にマップする

Sun Cluster のインストール時に、各ノードには、自動的に一意のノード ID 番号が割り当てられます。このノード ID 番号は、最初にクラスタに加わったときの順番でノードに割り当てられます。一度割り当てられた番号は変更できません。ノード ID 番号は、通常、エラーメッセージが発生したクラスタノードを識別するために、エラーメッセージで使用されます。この手順を使用し、ノード ID とノード名間のマッピングを判別します。

構成情報の一覧を表示するために、スーパーユーザーになる必要はありません。

  1. scconf(1M) コマンドを使用し、クラスタ構成情報の一覧を表示します。


    % scconf -pv | grep "Node ID"
    

例 - ノード名のノード ID へのマップ

次に、ノード ID の割り当て例を示します。


% scconf -pv | grep "Node ID"
	(phys-schost-1) Node ID:																				1
	(phys-schost-2) Node ID:																				2
	(phys-schost-3) Node ID:																				3

新しいクラスタノード認証で作業する

Sun Cluster を使用すると、新しいノードをクラスタに追加できるか、またどのような認証タイプかを判別できます。パブリックネットワーク上のクラスタに加わる新しいノードを許可したり、新しいノードがクラスタに加わることを拒否したり、クラスタに加わるノードを特定したりできます。新しいノードは、標準 UNIX または Diffie-Hellman (DES) 認証を使用し、認証することができます。DES 認証を使用して認証する場合、ノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細については、scsetup(1M) および publickey(4) のマニュアルページを参照してください。

  1. クラスタ内の任意のノードでスーパーユーザーになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

    「Main Menu」が表示されます。

  3. クラスタ認証で作業するには、6 (New nodes) を入力します。

    「New Nodes」メニューが表示されます。

  4. メニューから選択を行って、画面の指示に従います。

例 - 新しいマシンがクラスタに追加されないようにする

次に、新しいマシンがクラスタに追加されないようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。


# scconf -a -T node=.

例 - すべての新しいマシンがクラスタに追加されるように許可する

次に、すべての新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。


# scconf -r -T all

例 - クラスタに追加される新しいマシンを指定する

次に、単一の新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。


# scconf -a -T node=phys-schost-4

例 - 認証を標準 UNIX に設定する

次に、クラスタに加わる新しいノードの認証を標準 UNIX 認証にリセットする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。


# scconf -c -T authtype=unix

例 - 認証を DES に設定する

次に、クラスタに加わる新しいノードで DES 認証を使用する、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。


# scconf -c -T authtype=des

注 -

DES 認証を使用する場合、クラスタにノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細については、scsetup(1M) および publickey(4) のマニュアルページを参照してください。


クラスタの時刻をリセットする

Sun Cluster は、Network Time Protocol (NTP) を使用し、クラスタノード間で時刻を同期させています。クラスタの時刻の調整は、ノードが時刻を同期するときに、必要に応じて自動的に行われます。詳細については、『Sun Cluster 3.0 12/01 の概念』および『Network Time Protocol User's Guide』を参照してください。


注意 - 注意 -

NTP を使用する場合、クラスタの稼動中はクラスタの時刻を調整しないでください。このような調整としては、date(1)、rdate(1M)、xntpdate(1M) などのコマンドを、対話的に、または cron(1M) スクリプト内で使用することも含まれます。


  1. クラスタ内の任意のノードでスーパーユーザーになります。

  2. クラスタを停止して OBP プロンプトの状態にします。


    # scshutdown -g0 -y
    

  3. 各ノードを非クラスタノードで起動します。


    ok boot -x
    

  4. 単一のノードで、date(1) コマンドを実行して時刻を設定します。


    # date HHMMSS
    

  5. 他のマシンで、rdate(1M) コマンドを実行し、時刻をこのノードに同期化します。


    # rdate hostname
    

  6. 各ノードを起動し、クラスタを再起動します。


    # reboot
    

  7. すべてのクラスタノードで変更が行われたことを確認します。

    各ノードで、date(1M) コマンドを実行します。


    # date
    

ノードで OpenBoot PROM (OBP) コマンドを入力する

OpenBoot PROM 設定を構成または変更する必要がある場合は、この手順を使用します。

  1. 端末集配信装置 (コンセントレータ) ポートに接続します。


    # telnet tc_name tc_port_number
    

    tc_name

    端末集配信装置 (コンセントレータ) ポートに接続します。

    tc_port_number

    端末集配信装置のポート番号を指定します。ポート番号は構成に依存します。通常、ポート 2 (5002) と ポート 3 (5003) は、サイトで最初に設置されたクラスタで使用されています。

  2. scswitch(1M) コマンドを使用し、クラスタノードを正常に停止し、任意のリソースまたはディスクデバイスグループを退避します。次に、shutdown(1M) コマンドを使用し、ノードを OBP プロンプトの状態にします。


    # scswitch -S -h nodelist
    # shutdown -g0 -y -i0
    


    注意 - 注意 -

    クラスタノードを停止する場合は、クラスタコンソール上で send brk を使用してはなりません。send brk を使用し、OBP プロンプトに go を入力して再起動すると、ノードがパニックを発生します。この機能はクラスタ内ではサポートされていません。


  3. OBP コマンドを実行します。

プライベートホスト名を変更する

インストール完了後、クラスタノードのプライベートホスト名を変更するには、次のようにします。

デフォルトのプライベートホスト名は、クラスタの初期インストール時に割り当てられます。デフォルトのプライベートホスト名の形式は、clusternode nodeid -priv です (clusternode3-priv など)。 clusternode3-priv. プライベートホスト名を変更するのは、すでにその名前がドメイン内で使用されている場合だけにしてください。


注意 - 注意 -

新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。


  1. クラスタ内のすべてのノード上で、プライベートホスト名をキャッシュする可能性があるデータサービスリソースやアプリケーションをすべて無効にします。


    # scswitch -n -j resource1, resource2
    

    無効にするアプリケーションには次のようなものがあります。

    • HA-DNS と HA-NFS サービス (構成している場合)

    • プライベートホスト名を使用するようにカスタマイズしているアプリケーション

    • クライアントがプライベートインターコネクト経由で使用しているアプリケーション

    scswitch コマンドを使用する方法については、scswitch(1M) のマニュアルページと『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。

  2. クラスタ内の各ノード上で、Network Time Protocol (NTP) デーモンを停止します。

    NTP デーモンの詳細については、xntpd のマニュアルページを参照してください。


    # /etc/init.d/xntpd stop
    

  3. プライベートホスト名を変更するノードの名前を確認します。


    # scconf -p | grep node
    

  4. scsetup ユーティリティーを実行して、プライベートホスト名を変更します。

    この手順は、クラスタ内の 1 つのノードから行うだけでかまいません。


    注 -

    新しいプライベートホスト名を選択するときには、その名前がクラスタノード内で一意であることを確認してください。


  5. 「Main Menu」から 5 (Private Hostnames) を選択します。

  6. 「Private Hostnames Menu」から 1 (Change a Private Hostname) を選択します。

    表示される質問に答えます。ここでは、プライベートホスト名を変更するノードの名前 (clusternode<nodeid>-priv) と新しいプライベートホスト名がたずねられます。

  7. ネームサービスキャッシュをフラッシュします。

    この手順は、クラスタ内の各ノード上で行います。この作業によって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスすることを防ぎます。


    # nscd -i hosts
    

  8. 各ノード上で ntp.conf ファイルを編集し、プライベートホスト名を新しいものに変更します。

    編集するツールは任意のものを使用できます。

    この手順をインストール時に行う場合は、構成するノードの名前を削除する必要があります。デフォルトのテンプレートには 8 つのノードが事前構成されています。通常、ntp.conf ファイルは各クラスタノード上で同じです。

  9. すべてのクラスタノードから新しいプライベートホスト名に ping を実行して応答を確認します。

  10. NTP デーモンを再起動します。

    この手順は、クラスタ内の各ノード上で行います。


    # /etc/init.d/xntpd start
    

  11. 手順 1 で無効にしたデータサービスリソースとアプリケーションをすべて有効にします。


    # scswitch -e -j resource1, resource2
    

    scswitch コマンドを使用する方法については、scswitch(1M) のマニュアルページと『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。

例 - プライベートホスト名の変更

次に、ノード phys-schost-2 上のプライベートホスト名 clusternode2-privclusternode4-priv に変更する例を示します。


[必要なアプリケーションとデータサービスをすべて無効にする]
phys-schost-1# /etc/init.d/xntpd stop
phys-schost-1# scconf -p | grep node
 ...
 Cluster nodes:                                phys-schost-1 phys-schost-2 phys-
 schost-3
 Cluster node name:                                 phys-schost-1
  Node private hostname:                           clusternode1-priv
 Cluster node name:                                 phys-schost-2
  Node private hostname:                           clusternode2-priv
 Cluster node name:                                 phys-schost-3
  Node private hostname:                           clusternode3-priv
 ...
phys-schost-1# scsetup
phys-schost-1# nscd -i hosts
phys-schost-1# vi /etc/inet/ntp.conf
 ...
 peer clusternode1-priv
 peer clusternode4-priv
 peer clusternode3-priv
phys-schost-1# ping clusternode4-priv
phys-schost-1# /etc/init.d/xntpd start
[この手順の初めに無効にしたアプリケーションとデータサービスをすべて有効にする]

ノードを保守状態にする

サービスからクラスタノードを長時間はずす場合は、そのノードを保守状態にします。保守状態のノードは、サービス対象中に定足数確立の投票に参加しません。クラスタノードを保守状態にするには、scswitch(1M) および shutdown(1M) を使用してこのノードを停止する必要があります。


注 -

ノードを 1 つだけ停止する場合は、Solaris の shutdown コマンドを使用します。scshutdown コマンドは、クラスタ全体を停止する場合にだけ使用します。


クラスタノードが停止されて保守状態になると、そのノードのポートで構成されるすべての定足数デバイスの、定足数投票数 (quorum vote count) が 1 つ減ります。このノードが保守状態から移動してオンラインに戻されると、ノードおよび定足数デバイスの投票数は 1 つ増えます。

クラスタノードを保守状態にするには、scconf(1M) コマンドを使用する必要があります。scsetup ユーティリティーでは、定足数デバイスを保守状態にできません。

  1. 保守状態にするノード上でスーパーユーザーになります。

  2. すべてのリソースグループとディスクデバイスグループをノードから退避します。


    # scswitch -S -h nodelist
    

    -S

    指定したノードからすべてのデバイスサービスとリソースグループを退避します。

    -h nodelist

    リソースグループとデバイスグループを切り替えるノードを指定します。

  3. 退避するノードを OBP プロンプトの状態にして、クラスタから抜けます。


    # shutdown -g0 -y -i0
    

  4. クラスタ内の別のノード上でスーパーユーザーになり、手順 3 で停止したノードを保守状態にします。


    # scconf -c -q node=node,maintstate
    

    -c

    scconf コマンドの変更フォームを指定します。

    -q

    定足数オプションを管理します。

    node=node

    変更するノードのノード名またはノード ID を指定します。

    maintstate

    ノードを保守状態にします。

  5. クラスタノードが保守状態にあることを確認します。


    # scstat -q
    

    保守状態にしたノードの状態は offline であり、その PresentPossible の定足数投票数は 0 (ゼロ) である必要があります。

例 - クラスタノードを保守状態にする

次に、クラスタノードを保守状態にして、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 の Node votes0 (ゼロ) で、その状態は offline です。Quorum Summary では、投票数も減っているはずです。構成によって異なりますが、Quorum Votes by Device の出力では、いくつかの定足数ディスクデバイスも offline である可能性があります。


[保守状態にしたノード上で入力する]
phys-schost-1# scswitch -S -h phys-schost-1
phys-schost-1# shutdown -g0 -y -i0

[クラスタ内の別のノード上で入力する]
phys-schost-2# scconf -c -q node=phys-schost-1,maintstate
phys-schost-2# scstat -q

-- Quorum Summary --
  Quorum votes possible:      3
  Quorum votes needed:        2
  Quorum votes present:       3

-- Quorum Votes by Node --
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1       0        0       Offline
  Node votes:       phys-schost-2       1        1       Online
  Node votes:       phys-schost-3       1        1       Online

-- Quorum Votes by Device --
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2  0        0       Offline
  Device votes:     /dev/did/rdsk/d17s2 0        0       Offline
  Device votes:     /dev/did/rdsk/d31s2 1        1       Online

次の作業

ノードをオンラインに戻す方法については、「ノードを保守状態から戻す」を参照してください。

ノードを保守状態から戻す

次の手順を使用して、ノードをオンラインに戻し、定足数投票数をリセットしてデフォルト設定に戻します。クラスタノードのデフォルトの投票数は 1 です。定足数デバイスのデフォルトの投票数は N-1 です。N は、投票数が 0 以外で、定足数デバイスが構成されているポートを持つノードの数を示します。

ノードが保守状態になると、そのノードの投票数は 1 つ減ります。また、このノードのポートに構成されているすべての定足数デバイスの投票数も (1 つ) 減ります。投票数がリセットされ、ノードが保守状態から戻されると、ノードの投票数と定足数デバイスの投票数の両方が 1 つ増えます。

保守状態にしたノードを保守状態から戻した場合は、必ずこの手順を実行してください。


注意 - 注意 -

globaldev または node オプションのどちらも指定しない場合、定足数投票数はクラスタ全体でリセットされます。


  1. 保守状態ではない任意のクラスタノード上でスーパーユーザーになります。

  2. 定足数を使用する場合は、保守状態ではないノードのクラスタ定足数投票数をリセットします。

    保守状態ではないノードの定足数投票数をリセットするのは、そのノードを再起動する前である必要があります。そうしないと、定足数の確立を待機してハングアップすることがあります。


    # scconf -c -q node=node,reset
    

    -c

    scconf コマンドの変更フォームを指定します。

    -q

    定足数オプションを管理します。

    node=node

    リセットするノードの名前を指定します (phys-schost-1 など)。

    reset

    定足数をリセットする変更フラグです。

  3. 保守状態から戻したいノードを起動します。

  4. 定足数投票数を確認します。


    # scstat -q
    

    保守状態から戻したいノードの状態は online であり、PresentPossible の定足数投票数は適切な値である必要があります。

例 - クラスタノードを保守状態から戻して、定足数投票数をリセットする

次に、クラスタノードの定足数投票数をリセットして、その定足数デバイスをデフォルトに戻し、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 の Node votes1 であり、その状態は online です。Quorum Summary では、投票数も増えているはずです。


phys-schost-2# scconf -c -q node=phys-schost-1,reset

[phys-schost-1 上で入力する]
ok> boot

phys-schost-1# scstat -q

-- Quorum Summary --

  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6

-- Quorum Votes by Node --

                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1       1        1       Online
  Node votes:       phys-schost-2       1        1       Online
  Node votes:       phys-schost-3       1        1       Online

-- Quorum Votes by Device --

                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2  1        1       Online
  Device votes:     /dev/did/rdsk/d17s2 1        1       Online
  Device votes:     /dev/did/rdsk/d31s2 1        1       Online

クラスタノードの追加と削除

次の表に、ノードを既存のクラスタに追加するときに行う作業を示します。これらの作業を正常に行うには、示された順番に従う必要があります。

表 6-2 作業マップ: 既存のクラスタへのクラスタノードの追加

作業 

参照箇所 

ホストアダプタのノードへの取り付けと、既存のクラスタインターコネクトが新しいノードをサポートできることの確認 

Sun Cluster 3.0 12/01 Hardware Guide

共有記憶装置の追加 

Sun Cluster 3.0 12/01 Hardware Guide

認証ノードリストへのノードの追加 

- scsetup を使用します。

「クラスタノードを認証ノードリストに追加する」

新しいクラスタノードへのソフトウェアのインストールと構成 

- Solaris オペレーティング環境および Sun Cluster ソフトウェアをインストールします。 

- クラスタの一部としてノードを構成します。 

Sun Cluster 3.0 12/01 ソフトウェアのインストール』: Sun Cluster ソフトウェアのインストールと構成についての節を参照。

次の表に、ノードを既存のクラスタから削除するときに行う作業を示します。これらの作業を正常に行うには、示された順番に従う必要があります。

表 6-3 作業リスト : クラスタノードの削除

作業 

参照箇所 

削除するノードを保守状態にする。 

- shutdownscconf を使用します。

「ノードを保守状態にする」

すべてのリソースグループからノードを削除する。 

- scrgadm を使用します。

Sun Cluster 3.0 12/01 データサービスのインストールと構成』: 既存のリソースグループからノードを削除する手順を参照。

ノードがメンバーになっているすべてのデバイスグループからノードを削除する。 

- ボリューム管理ソフトウェアのコマンドを使用します。 

「ディスクデバイスグループからノードを削除する (Solstice DiskSuite)」

または、 

「ディスクデバイスグループからノードを削除する (VERITAS Volume Manager)」

削除するノードへのすべての論理トランスポート接続を削除する。 

- scsetup を使用します。

「クラスタトランスポートケーブル、トランスポートアダプタ、トランスポート接続点を削除する」

 

ハードウェアをノードから物理的に取り外す方法については、『Sun Cluster 3.0 12/01 Hardware Guide』 を参照してください。

削除するノードと共有しているすべての定足数デバイスを削除する。 

- scsetup を使用します。

「定足数デバイスを削除する」

クラスタソフトウェア構成からノードを削除する。 

- scconf を使用します。

「クラスタソフトウェア構成からノードを削除する」

必要な共有記憶装置をノードおよびクラスタから削除する。 

- ボリューム管理ソフトウェアのマニュアルおよびハードウェアのマニュアル手順に従います。 

SDS または VxVM の管理ガイド、 

Sun Cluster 3.0 12/01 Hardware Guide

クラスタノードを認証ノードリストに追加する

既存のクラスタにマシンを追加する前に、プライベートクラスタインターコネクトとの物理的な接続が正確に行われているかなど、必要なとハードウェアがすべて正確にノードにインストールおよび構成されていることを確認してください。

ハードウェアの設置については、『Sun Cluster 3.0 12/01 Hardware Guide』または使用するサーバーに付属しているマニュアルを参照してください。

この手順によって、マシンは自分自身をクラスタ内にインストールします。つまり、自分のノード名を当該クラスタの認証ノードリストに追加します。

この手順を行うには、現在のクラスタメンバーノード上でスーパーユーザーになる必要があります。

  1. 「クラスタノードの追加と削除」の作業リストに示されているハードウェアの設置作業と構成作業がすべて正常に行われていることを確認します。

  2. scsetup(1M) ユーティリティーを実行します。


    # scsetup
    

    「Main Menu」が表示されます。

  3. 認証ノードリストを変更するには、「New Nodes Menu」で 3 を入力して、自分自身を追加するマシンの名前を指定します。

    指示に従って、ノードの名前をクラスタに追加します。追加するノードの名前がたずねられます。

  4. 「New Nodes Menu」にアクセスするには、「Main Menu」で 6 を入力します。

  5. 作業が正常に行われたことを確認します。

    作業が正常に行われた場合、scsetup ユーティリティーは「Command completed successfully」というメッセージを表示します。

  6. 新しいマシンをクラスタに追加できないように設定するには、「New Nodes Menu」で 1 を入力します。

    scsetup の指示に従います。このオプションを設定すると、クラスタは、新しいマシンが自分自身をクラスタに追加しようとするパブリックネットワーク経由の要求をすべて無視します。

  7. scsetup ユーティリティーを終了します。

  8. 新しいクラスタノード上でソフトウェアをインストールして構成します。

    新しいノードをインストールして構成するには、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』に説明されているとおりに、scinstall または JumpStartTM のどちらかを使用します。

例 - クラスタノードの認証ノードリストへの追加

次に、ノード phys-schost-3 を既存のクラスタの認証ノードリストに追加する例を示します。


[スーパーユーザーになり、scsetup ユーティリティーを実行する]
# scsetup
Select New nodes>Specify the name of a machine which may add itself.
Answer the questions when prompted.
Verify that the scconf command completed successfully.
 
scconf -a -T node=phys-schost-3
 
    Command completed successfully.
Select Prevent any new machines from being added to the cluster.
Quit the scsetup New Nodes Menu and Main Menu.
[クラスタソフトウェアをインストールする]

次の作業

クラスタノードを追加する作業の概要については、表 6-2 の「作業マップ: クラスタノードの追加」を参照してください。

既存のリソースグループにノードを追加するには、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。

クラスタソフトウェア構成からノードを削除する

ここで説明する手順は、ノードをクラスタから削除するプロセスで実行する必要のある最後のソフトウェア構成手順です。この手順を実行するには、クラスタ内の任意のノード上でスーパーユーザーになる必要があります。

  1. 「クラスタノードの追加と削除」の作業リストに示されている作業がすべて正常に行われていることを確認します。


    注 -

    この手順を続行する前に、ノードを保守状態にしたうえで、そのノードがすべてのリソースグループ、デバイスグループ、定足数 (quorum) デバイス構成から削除してあることを確認してください。


  2. クラスタ内のローカルディスクおよび関連する raw ディスクデバイスグループ名を確認します (dsk/d4 など)


    # scconf -pvv | grep Local_Disk	
    

  3. 削除するノードに接続されているクラスタ内のローカルディスクおよび raw ディスクデバイスグループを確認します。


    # scconf -pvv | grep node-name | grep Device	
    

  4. 手順 3 で確認したすべてのローカルディスクの localonly 属性を無効にします。

    localonly 属性の詳細については、scconf_dg_rawdisk のマニュアルページを参照してください。


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

  5. ノードが属している raw ディスクデバイスグループからノードを削除します。

    この手順は、削除するノードに接続されている raw ディスクデバイスグループごとに行う必要があります。


    # scconf -r -D name=rawdisk-device-group,nodelist=node
    

  6. クラスタからノードを削除します。


    # scconf -r -h node=nodename 
    

  7. scstat を使用し、ノードが削除されていることを確認します。


    # scstat -n
    

  8. ノードをクラスタから物理的に切り離すには、ハードウェアを取り外します。詳細については、『Sun Cluster 3.0 12/01 Hardware Guide』を参照してください。


注 -

クラスタからノードを削除した後でこのノードを稼動状態に戻すには、削除したノードに Solaris オペレーティング環境を再インストールする必要があります。


例 - クラスタソフトウェア構成からのノードの削除

次に、ノード phys-schost-2 をクラスタから削除する例を示します。


[任意のノード上でスーパーユーザーになり、すべてのローカルディスクとその raw 
ディスクデバイスグループ名を確認する]
# scconf -pvv | grep Local_Disk
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:          Local_Disk
[削除するノードに接続されているローカルディスクとその raw ディスクデバイス
グループを確認する]
# scconf -pvv | grep phys-schost-2 | grep Device	
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[ノード上のすべてのローカルディスクで localonly フラグを削除する]
# scconf -c -D name=dsk/d4,localonly=false
[すべての raw ディスクデバイスグループからノードを削除する]
# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
# scconf -r -D name=dsk/d1,nodelist=phys-schost-2
[クラスタからノードを削除する]
# scconf -r -h node=phys-schost-2
[ノードの削除を確認する]
# scstat -n
-- Cluster Nodes --
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1       Online

次の作業

ハードウェアに関連する作業については、『Sun Cluster 3.0 12/01 Hardware Guide』を参照してください。

クラスタノードを削除する作業の概要については、表 6-3の「作業マップ: クラスタノードの削除」を参照してください。

ノードを既存のクラスタに追加する方法については、「クラスタノードを認証ノードリストに追加する」を参照してください。