この章では、クラスタ全体に影響を与える項目の管理手順について説明します。
この章で説明する手順は次のとおりです。
作業 |
参照箇所 |
---|---|
クラスタの名前の変更 | |
ノード ID およびそれらの対応するノード名の一覧の表示 | |
クラスタへの新しいノードの追加を許可または拒否 | |
Network Time Protocol (NTP) を使用してクラスタの時刻を変更 | |
ノードを停止し、OpenBootTM PROM に入る | |
プライベートホスト名を変更 | |
クラスタノードを保守状態に変更 | ノードを保守状態にする |
クラスタノードを保守状態から復帰 | |
ノードをクラスタに追加 | |
ノードをクラスタから削除 |
必要に応じて、初期インストール後にクラスタ名を変更できます。
クラスタ内にある任意のノード上でスーパーユーザーになります。
scsetup(1M) ユーティリティーを起動します。
# scsetup |
メインメニューが表示されます。
クラスタ名を変更するには、7 (クラスタその他のプロパティ) を選択します。
「クラスタその他のプロパティ」メニューが表示されます。
メニューから選択を行って、画面の指示に従います。
次に、scsetup ユーティリティーから生成された scconf(1M) コマンドを使用して、新しいクラスタ名 dromedary に変更する例を示します。
# scconf -c -C cluster=dromedary |
Sun Cluster のインストール時に、各ノードには、自動的に一意のノード ID 番号が割り当てられます。このノード ID 番号は、最初にクラスタに加わったときの順番でノードに割り当てられます。一度割り当てられた番号は変更できません。ノード ID 番号は、通常、エラーメッセージが発生したクラスタノードを識別するために、エラーメッセージで使用されます。この手順を使用し、ノード ID とノード名間のマッピングを判別します。
構成情報の一覧を表示するために、スーパーユーザーになる必要はありません。
次に、ノード ID の割り当て例を示します。
% scconf -pv | grep “ノード ID” (phys-schost-1) ノード ID: 1 (phys-schost-2) ノード ID: 2 (phys-schost-3) ノード ID: 3 |
Sun Cluster を使用すると、新しいノードをクラスタに追加できるか、またどのような認証タイプかを判別できます。パブリックネットワーク上のクラスタに加わる新しいノードを許可したり、新しいノードがクラスタに加わることを拒否したり、クラスタに加わるノードを特定できます。新しいノードは、標準 UNIX または Diffie-Hellman (DES) 認証を使用し、認証することができます。DES 認証を使用して認証する場合、ノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細については、keyserv(1M) および publickey(4) のマニュアルページを参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
scsetup(1M) ユーティリティを実行します。
# scsetup |
メインメニューが表示されます。
クラスタ認証で作業するには、6 (新規ノード) を選択します。
「新規ノード」メニューが表示されます。
メニューから選択を行って、画面の指示に従います。
次に、新しいマシンがクラスタに追加されないようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -a -T node=. |
次に、すべての新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -r -T all |
次に、単一の新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -a -T node=phys-schost-4 |
次に、クラスタに加わる新しいノードの認証を標準 UNIX 認証にリセットする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -c -T authtype=unix |
次に、クラスタに加わる新しいノードで DES 認証を使用する、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -c -T authtype=des |
DES 認証を使用する場合、クラスタにノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細については、keyserv(1M) と publickey(4) のマニュアルページを参照してください。
Sun Cluster は、Network Time Protocol (NTP) を使用し、クラスタノード間で時刻を同期させています。クラスタの時刻の調整は、ノードが時刻を同期するときに、必要に応じて自動的に行われます。詳細については、『 Sun Cluster 3.1 10/03 の概念』と『Network Time Protocol User's Guide』を参照してください。
NTP を使用する場合、クラスタの稼動中はクラスタの時刻を調整しないでください。このような調整には、date(1)、rdate(1M)、xntpd(1M) などのコマンドを、対話的に使用したり、cron(1M) スクリプト内で使用する方法が含まれます。
クラスタ内にある任意のノード上でスーパーユーザーになります。
クラスタを停止して OBP プロンプトの状態にします。
# scshutdown -g0 -y |
各ノードを非クラスタノードで起動します。
ok boot -x |
単一のノードで、date(1) コマンドを実行して時刻を設定します。
# date HHMMSS |
他のマシンで、rdate(1M) コマンドを実行し、時刻をこのノードに同期化します。
# rdate hostname |
各ノードを起動し、クラスタを再起動します。
# reboot |
すべてのクラスタノードで変更が行われたことを確認します。
各ノードで、date(1M) コマンドを実行します。
# date |
OpenBoot PROM 設定を構成または変更する必要がある場合は、この手順を使用します。
端末集配信装置 (コンセントレータ) ポートに接続します。
# telnet tc_name tc_port_number |
端末集配信装置 (コンセントレータ) の名前を指定します。
端末集配信装置のポート番号を指定します。ポート番号は構成に依存します。通常、ポート 2 (5002) と ポート 3 (5003) は、サイトで最初に設置されたクラスタで使用されています。
scswitch(1M) コマンドを使用し、クラスタノードを正常に停止し、任意のリソースまたはディスクデバイスグループを排除します。次に、shutdown(1M) コマンドを使用し、ノードを OBP プロンプトの状態にします。
# scswitch -S -h node[,...] # shutdown -g0 -y -i0 |
クラスタノードを停止する場合は、クラスタコンソール上で send brk を使用してはいけません。send brk を使用し、OBP プロンプトに go を入力して再起動すると、ノードがパニックを発生します。この機能はクラスタ内ではサポートされていません。
OBP コマンドを実行します。
インストール完了後、クラスタノードのプライベートホスト名を変更するには、次のようにします。
デフォルトのプライベートホスト名は、クラスタの初期インストール時に割り当てられます。デフォルトのプライベートホスト名の形式は、clusternode nodeid -priv です (clusternode3-priv など)。 clusternode3-priv . プライベートホスト名を変更するのは、すでにその名前がドメイン内で使用されている場合だけにしてください。
新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。
クラスタ内のすべてのノード上で、プライベートホスト名をキャッシュする可能性があるデータサービスリソースやアプリケーションをすべて無効にします。
# scswitch -n -j resource1, resource2 |
無効にするアプリケーションには次のようなものがあります。
HA-DNS と HA-NFS サービス (構成している場合)
プライベートホスト名を使用するようにカスタマイズしているアプリケーション
クライアントがプライベートインターコネクト経由で使用しているアプリケーション
scswitch コマンドを使用する方法については、scswitch(1M) のマニュアルページと、『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。
クラスタ内の各ノード上で、Network Time Protocol (NTP) デーモンを停止します。
NTP デーモンの詳細については、xntpd のマニュアルページを参照してください。
# /etc/init.d/xntpd stop |
scsetup(1M) ユーティリティーを実行して、適切なノードのプライベートホスト名を変更します。
この手順は、クラスタ内の 1 つのノードから行うだけでかまいません。
新しいプライベートホスト名を選択するときには、その名前がクラスタノード内で一意であることを確認してください。
「メインメニュー」から 6 (プライベートホスト名) を選択します。
「プライベートホスト名メニュー」から 1「プライベートホスト名を変更」を選択します。
表示される質問に答えます。ここでは、プライベートホスト名を変更するノードの名前 (clusternode<nodeid>-priv) と新しいプライベートホスト名を問い合わせられます。
ネームサービスキャッシュをフラッシュします。
この手順は、クラスタ内の各ノード上で行います。この作業によって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスすることを防ぎます。
# nscd -i hosts |
各ノード上で ntp.conf ファイルを編集し、プライベートホスト名を新しいものに変更します。
編集するツールは任意のものを使用できます。
この手順をインストール時に行う場合は、構成するノードの名前を削除する必要があります。デフォルトのテンプレートには 8 つのノードが事前構成されています。通常、ntp.conf ファイルは各クラスタノード上で同じです。
すべてのクラスタノードから新しいプライベートホスト名に ping を実行して応答を確認します。
NTP デーモンを再起動します。
この手順は、クラスタ内の各ノード上で行います。
# /etc/init.d/xntpd start |
手順 1で無効にしたデータサービスリソースとアプリケーションをすべて有効にします。
# scswitch -e -j resource1, resource2 |
scswitch コマンドを使用する方法については、scswitch(1M) のマニュアルページと『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。
次に、ノード phys-schost-2 上のプライベートホスト名 clusternode2-priv を clusternode4-priv に変更する例を示します。
[必要に応じてすべてのアプリケーションとデータサービスを無効化する] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# scconf -p | grep ノード ... クラスタノード: phys-schost-1 phys-schost-2 phys- schost-3 クラスタノード名: phys-schost-1 ノードのプライベート名: clusternode1-priv クラスタノード名: phys-schost-2 ノードのプライベート名: clusternode2-priv クラスタノード名: phys-schost-3 ノードのプライベート名: clusternode3-priv ... phys-schost-1# scsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [手順の初めで無効化したすべてのアプリケーションとデータサービスを有効化する] |
サービスからクラスタノードを長時間はずす場合は、そのノードを保守状態にします。保守状態のノードは、サービス対象中に定足数確立の投票に参加しません。クラスタノードを保守状態にするには、scswitch(1M) および shutdown(1M) を使用してこのノードを停止する必要があります。
ノードを 1 つだけ停止する場合は、Solaris の shutdown コマンドを使用します。scshutdown コマンドは、クラスタ全体を停止する場合にだけ使用します。
クラスタノードが停止されて保守状態になると、そのノードのポートで構成されるすべての定足数デバイスの、定足数投票数 (quorum vote count) が 1 つ減ります。このノードが保守状態から移動してオンラインに戻されると、ノードおよび定足数デバイスの投票数は 1 つ増えます。
クラスタノードを保守状態にするには、scconf(1M) コマンドを使用する必要があります。scsetup(1M) ユーティリティには、定足数デバイスを保守状態にする機能はありません。
保守状態にするノード上でスーパーユーザーになります。
すべてのリソースグループとディスクデバイスグループをノードから退避します。
# scswitch -S -h node[,...] |
指定したノードからすべてのデバイスサービスとリソースグループを退避します。
リソースグループとデバイスグループを切り替えるノードを指定します。
退避するノードを OBP プロンプトの状態にして、クラスタから抜けます。
# shutdown -g0 -y -i0 |
クラスタ内の別のノードでスーパーユーザーになり、手順 3で停止したノードを保守状態にします。
# scconf -c -q node=node,maintstate |
scconf コマンドの変更フォームを指定します。
定足数オプションを管理します。
変更するノードのノード名またはノード ID を指定します。
ノードを保守状態にします。
クラスタノードが保守状態にあることを確認します。
# scstat -q |
保守状態にしたノードの状態はオフラインであり、その Present と Possible の定足数投票数は 0 (ゼロ) である必要があります。
次に、クラスタノードを保守状態にして、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 のノードの投票数は 0 (ゼロ) で、その状態はオフラインです。定足数の概要では、投票数も減っているはずです。構成によって異なりますがデバイスによる定足数の投票数の出力では、いくつかの定足数ディスクデバイスもオフラインである可能性があります。
[保守状態にするノード上で次を実行する:] phys-schost-1# scswitch -S -h phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [クラスタ内の別のノード上:] phys-schost-2# scconf -c -q node=phys-schost-1,maintstate phys-schost-2# scstat -q -- 定足数の概要 -- 可能な定足数投票数: 3 必要な定足数投票数: 2 現在の定足数投票数: 3 -- ノードによる定足数の投票数 -- ノード名 現在の数 可能な数 状態 --------- ------- -------- ------ ノードの投票数: phys-schost-1 0 0 オンライン ノードの投票数: phys-schost-2 1 1 Online ノードの投票数: phys-schost-3 1 1 Online -- デバイスによる定足数の投票数 -- デバイス名 現在の数 可能な数 状態 ----------- ------- -------- ------ デバイスの投票数: /dev/did/rdsk/d3s2 0 0 Online デバイスの投票数: /dev/did/rdsk/d17s2 0 0 Online デバイスの投票数: /dev/did/rdsk/d31s2 1 1 Online |
ノードをオンラインに戻す方法については、ノードを保守状態から戻すを参照してください。
次の手順を使用して、ノードをオンラインに戻し、定足数投票数をリセットしてデフォルト設定に戻します。クラスタノードのデフォルトの投票数は 1 です。定足数デバイスのデフォルトの投票数は N-1 です。N は、投票数が 0 以外で、定足数デバイスが構成されているポートを持つノードの数を示します。
ノードが保守状態になると、そのノードの投票数は 1 つ減ります。また、このノードのポートに構成されているすべての定足数デバイスの投票数も (1 つ) 減ります。投票数がリセットされ、ノードが保守状態から戻されると、ノードの投票数と定足数デバイスの投票数の両方が 1 つ増えます。
保守状態にしたノードを保守状態から戻した場合は、必ずこの手順を実行してください。
globaldev または node オプションのどちらも指定しない場合、定足数投票数はクラスタ全体でリセットされます。
保守状態ではない任意のクラスタノード上でスーパーユーザーになります。
定足数を使用する場合は、保守状態ではないノードのクラスタ定足数投票数をリセットします。
保守状態ではないノードの定足数投票数をリセットするのは、そのノードを再起動する前である必要があります。そうしないと、定足数の確立を待機してハングアップすることがあります。
# scconf -c -q node=node,reset |
scconf コマンドの変更フォームを指定します。
定足数オプションを管理します。
リセットするノードの名前を指定します (phys-schost-1 など)。
定足数をリセットする変更フラグです。
保守状態から戻したいノードを起動します。
定足数投票数を確認します。
# scstat -q |
保守状態から戻したいノードの状態は online であり、Present と Possible の定足数投票数は適切な値である必要があります。
次に、クラスタノードの定足数投票数をリセットして、その定足数デバイスをデフォルトに戻し、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 の Node votes は 1 であり、その状態は online です。Quorum Summary では、投票数も増えているはずです。
phys-schost-2# scconf -c -q node=phys-schost-1,reset [phys-schost-1 上で次を実行する:] ok> boot phys-schost-1# scstat -q -- 定足数の概要 -- 可能な定足数投票数: 6 必要な定足数投票数: 4 現在の定足数投票数: 6 -- ノードによる定足数の投票数 -- ノード名 現在の数 可能な数 状態 --------- ------- -------- ------ ノードの投票数: phys-schost-1 1 1 Online ノードの投票数: phys-schost-2 1 1 Online ノードの投票数: phys-schost-3 1 1 Online -- デバイスによる定足数の投票数 -- デバイス名 現在の数 可能な数 状態 ----------- ------- -------- ------ デバイスの投票数: /dev/did/rdsk/d3s2 1 1 Online デバイスの投票数: /dev/did/rdsk/d17s2 1 1 Online デバイスの投票数: /dev/did/rdsk/d31s2 1 1 オンライン |
次の表に、ノードを既存のクラスタに追加するときに行う作業を示します。これらの作業を正常に行うには、示された順番に従う必要があります。
表 7–2 作業マップ: 既存のクラスタへのクラスタノードの追加
作業 |
参照箇所 |
---|---|
ホストアダプタのノードへの取り付けと、既存のクラスタインターコネクトが新しいノードをサポートできることの確認 | |
共有記憶装置の追加 | |
認証ノードリストへのノードの追加 - scsetup を使用します。 | ノードを認証ノードリストに追加する |
新しいクラスタノードへのソフトウェアのインストールと構成 - Solaris オペレーティング環境および Sun Cluster ソフトウェアをインストールします。 - クラスタの一部としてノードを構成します。 |
『Sun Cluster 3.1 10/03 ソフトウェアのインストール』の「Sun Cluster ソフトウェアのインストールと構成」 |
次の表に、ノードを既存のクラスタから削除するときに行う作業を示します。これらの作業を正常に行うには、示された順番に従う必要があります。
OPS 構成を実行しているクラスタでは、この手順を実行してはいけません。現時点では、OPS 構成のノードを削除すると、他のノードがリブート時にパニックを起こす可能性があります。
作業 |
参照箇所 |
---|---|
削除したいノードからすべてのリソースグループとディスクデバイスグループを移動 - scswitch(1M) を使用します。 |
# scswitch -S -h from-node |
すべてのリソースグループからノードを削除 - scrgadm(1M) を使用します。 |
『 Sun Cluster 3.1 データサービスの計画と管理』 |
すべてのディスクデバイスグループからノードを削除 - scconf(1M)、metaset(1M)、および scsetup(1M) を使用します。 |
ディスクデバイスグループからノードを削除する (Solstice DiskSuite/Solaris Volume Manager) |
すべての定足数デバイスを削除 - scsetup を使用します。 |
注意: 2 ノードクラスタからノードを削除している場合、定足数デバイスを削除してはなりません。 次の手順では、ストレージデバイスを削除する前に定足数デバイスを削除する必要がありますが、定足数デバイスはその直後に追加し直すことができます。 |
ノードからストレージデバイスを削除 - devfsadm(1M)、scdidadm(1M) を使用します。 |
注意: 2 ノードクラスタからノードを削除している場合、定足数デバイスを削除してはなりません。2 ノード接続より大きなクラスタでアレイと単一ノード間の接続を削除する |
新しい定足数デバイスを追加 (クラスタに残しておきたいノードのみ) - scconf -a -q globaldev=d[ n],node=node1, node= node2 を使用します。 |
scconf(1M) |
削除するノードを保守状態に変更 - scswitch(1M)、shutdown(1M)、および scconf(1M) を使用します。 | |
削除するノードに対するすべての論理トランスポート接続を削除 - scsetup を使用します。 | |
最後の定足数デバイスを削除 | |
クラスタソフトウェア構成からノードを削除 - scconf を使用します。 |
既存のクラスタにマシンを追加する前に、プライベートクラスタインターコネクトとの物理的な接続が正確に行われているかなど、必要なハードウェアがすべて正確にノードにインストールおよび構成されていることを確認してください。
ハードウェアのインストールについては、『Sun Cluster 3.x Hardware Administration Manual』または各サーバーに付属のハードウェアマニュアルを参照してください。
この手順によって、マシンは自分自身をクラスタ内にインストールします。つまり、自分のノード名を当該クラスタの認証ノードリストに追加します。
この手順を行うには、現在のクラスタメンバー上でスーパーユーザーになる必要があります。
クラスタノードの追加と削除の作業マップに記載されている必要不可欠なハードウェアのインストール作業と構成作業をすべて正しく完了していることを確認します。
scsetup(1M) ユーティリティーを実行します。
# scsetup |
メインメニューが表示されます。
「新規ノード」メニューにアクセスするには、「メインメニュー」で 6 を選択します。
認証ノードリストを変更するには、「新規ノード」メニューで 3 を選択して、自分自身を追加するマシンの名前を指定します。
ノードの名前をクラスタに追加するためのプロンプトに従います。追加するノードの名前が問い合わせられます。
作業が正常に行われたことを確認します。
作業が正常に行われた場合、scsetup ユーティリティーは「コマンドが正常に完了しました」というメッセージを表示します。
新しいマシンをクラスタに追加できないように設定するには、「新規ノード」メニューで 1 を選択します。
scsetup プロンプトに従います。このオプションを設定すると、クラスタは、新しいマシンが自分自身をクラスタに追加しようとするパブリックネットワーク経由の要求をすべて無視します。
scsetup ユーティリティを終了します。
新しいクラスタノード上でソフトウェアをインストールして構成します。
scinstall または JumpStartTMを使用して、新しいノードのインストールと構成を完了します (『 Sun Cluster 3.1 ソフトウェアのインストール』を参照)。
次に、ノード phys-schost-3 を既存のクラスタの認証ノードリストに追加する例を示します。
[スーパーユーザーになり、scsetup ユーティリティを実行する] # scsetup 新規ノードを選択します > 追加するマシンの名前を指定します プロンプトが表示されたら、質問に答えます scconf コマンドが正常に終了したことを確認します scconf -a -T node=phys-schost-3 コマンドが正常に完了しました 「新規マシンはクラスタに追加しない」を選択します scsetup 新規ノードメニューとメインメニューを停止する [クラスタソフトウェアをインストールする] |
クラスタノードを追加する作業の概要については、表 7-2 の「作業マップ : クラスタノードの追加」を参照してください。
ノードを既存のリソースグループに追加する方法については、『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。
クラスタノードの追加と削除の「作業マップ : クラスタノードの削除」に記載されている必要不可欠な作業をすべて正しく完了していることを確認します。
この手順を実行する前に、ノードをすべてのリソースグループ、ディスクデバイスグループ、および定足数デバイスの構成から削除していること、および、このノードを保守状態にしていることを確認します。
削除するノード以外のクラスタノードでスーパーユーザーになります。
クラスタからノードを削除します。
# scconf -r -h node=node-name |
scstat(1M) を使用して、ノードが削除されていることを確認します。
# scstat -n |
削除するノードから Sun Cluster ソフトウェアをアンインストールする予定かどうかを確認します。
アンインストールする場合は、Sun Cluster ソフトウェアをクラスタノードからアンインストールするに進みます。あるいは、Solaris ソフトウェアをインストールし直してもかまいません。
アンインストールしない場合、ノードをクラスタから物理的に取り外すには、ハードウェア接続を切断します (『Sun Cluster 3.x Hardware Administration Manual』を参照)。
次に、ノード phys-schost-2 をクラスタから削除する例を示します。すべてのコマンドは、クラスタの別のノード (phys-schost-1) から実行します。
[クラスタからノードを削除する:] phys-schost-1# scconf -r -h node=phys-schost-2 [ノードの削除を確認する:] phys-schost-1# scstat -n -- クラスタノード -- ノード名 状態 --------- ------ クラスタノード: phys-schost-1 オンライン |
削除するノードから Sun Cluster ソフトウェアをアンインストールする方法については、Sun Cluster ソフトウェアをクラスタノードからアンインストールするを参照してください。
ハードウェア手順については、『Sun Cluster 3.x Hardware Administration Manual』を参照してください。
クラスタノードを削除する作業の概要については、表 7-3 を参照してください。
ノードを既存のクラスタに追加する方法については、ノードを認証ノードリストに追加するを参照してください。
3 ノードまたは 4 ノード接続のクラスタでストレージアレイを単一クラスタノードから取り外すには、次の手順を使用します。
取り外す予定のストレージアレイに関連付けられているすべてのデータベーステーブル、データサービス、ボリュームのバックアップを作成します。
切断する予定のノードで動作しているリソースグループとデバイスグループを判別します。
# scstat |
必要であれば、切断する予定のノードからすべてのリソースグループとデバイスグループを移動します。
OPS/RAC ソフトウェアをクラスタで実行している場合、グループをノードから移動する前に、動作している OPS/RAC データベースのインスタンスを停止します。手順については、『 Oracle Database Administration Guide』を参照してください。
# scswitch -S -h from-node |
デバイスグループを保守状態にします。
Veritas 共有ディスクグループへの入出力活動を休止させる手順については、VERITAS Volume Manager のマニュアルを参照してください。
デバイスグループを保守状態にする手順については、『Sun Cluster 3.1 10/03 のシステム管理』の「クラスタの管理」を参照してください。
デバイスグループからノードを削除します。
VERITAS Volume Manager または raw ディスクを使用している場合は、scconf(1M) コマンドを使用して、デバイスグループを削除します。
Solstice DiskSuite を使用している場合は、metaset コマンドを使用して、デバイスグループを削除します。
クラスタで HAStorage または HAStoragePlus を実行している場合は、リソースグループのノードリストからノードを削除します。
# scrgadm -a -g resource-group -h nodelist |
リソースグループのノードリストを変更する方法の詳細については、『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。
scrgadm を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティ名に大文字と小文字の区別はありません。
削除する予定のストレージアレイがノードに接続されている最後のストレージアレイである場合、当該ストレージアレイに接続されているハブまたはスイッチとノードの間にある光ケーブルを取り外します (そうでない場合、この手順を飛ばします)。
切断する予定のノードからホストアダプタを削除するかどうかを確認します。
削除する場合は、ノードを停止して、ノードの電源を切断します。
削除しない場合は、手順 11に進みます。
ノードからホストアダプタを削除します。
ホストアダプタを削除する手順については、ホストアダプタとノードに付属しているマニュアルを参照してください。
起動が行われないようにして、ノードに電源を入れます。
ノードを非クラスタモードで起動します。
ok boot -x |
次の手順で OPS/RAC ソフトウェアを削除する前に、ノードを非クラスタモードにしておく必要があります。そうしなければ、ノードにパニックが発生して、データの可用性が失われる可能性があります。
OPS/RAC ソフトウェアがインストールされている場合、切断する予定のノードから OPS/RAC ソフトウェアパッケージを削除します。
# pkgrm SUNWscucm |
切断する予定のノードから OPS/RAC ソフトウェアを削除しなければ、そのノードをクラスタに導入し直したときに、ノードにパニックが発生して、データの可用性が失われる可能性があります。
ノードをクラスタモードで起動します。
ok> boot |
ノードの /devices と /dev エントリを更新して、デバイスの名前空間を更新します。
# devfsadm -C # scdidadm -C |
デバイスグループをオンラインに戻します。
VERITAS 共有ディスクグループをオンラインにする手順については、VERITAS Volume Manager のマニュアルを参照してください。
デバイスグループをオンラインにする手順については、「デバイスグループを保守状態にする」の手順を参照してください。
完全に確立されたクラスタ構成からクラスタノードを切り離す前に、クラスタノードから Sun Cluster ソフトウェアをアンインストールするには、この手順を使用します。この手順では、クラスタに存在する最後のノードからソフトウェアをアンインストールできます。
クラスタにまだ結合されていない、あるいはまだインストールモードであるノードから Sun Cluster ソフトウェアをアンインストールする場合、この手順を使用してはいけません。その代わりに、『 Sun Cluster 3.1 10/03 ソフトウェアのインストール』の「Sun Cluster ソフトウェアをアンインストールしてインストール問題を解決する」に進みます。
クラスタノードの削除に必要なすべての前提条件 (作業マップを参照) が完了しているか確認します。
クラスタノードの追加と削除を参照してください。
この手順を行う前に、すべてのリソースグループやデバイスグループ、定足数構成からこのノードが削除され、保守状態に置かれ、クラスタから削除されていることを確認してください。
アンインストールを行なうノード以外のアクティブなクラスタメンバー上でスーパーユーザーになります。
アクティブなクラスタメンバーから、アンインストールを行なうノードをクラスタのノード認証リストに追加します。
# scconf -a -T node=nodename |
ノードを追加します。
認証オプションを指定します。
認証リストに追加するノードの名前を指定します。
あるいは、scsetup(1M) ユーティリティも使用できます。手順については、ノードを認証ノードリストに追加するを参照してください。
アンインストールするノードでスーパーユーザーになります。
ノードを再起動して、非クラスタモードにします。
# shutdown -g0 -y -i0 ok boot -x |
/etc/vfstab ファイルから、広域的にマウントされるすべてのファイルシステムエントリを削除します。ただし、/global/.devices 広域マウントを除きます。
ノードから Sun Cluster ソフトウェアをアンインストールします。
Sun Cluster パッケージとは関係のないディレクトリから次のコマンドを実行します。
# cd / # scinstall -r |
詳細については、scinstall(1M) のマニュアルページを参照してください。scinstall からエラーが返される場合は、削除されていないクラスタファイルシステムエントリがある場合を参照してください。
他のクラスタデバイスからトランスポートケーブルとトランスポート接続点 (ある場合) を切り離します。
次の節のエラーメッセージを修正するには、次の手順を実行します。
ノードのクラスタへの再結合を試みます。
# boot |
ノードがクラスタに正常に再結合されているかどうかを確認します。
再接合されていない場合は、手順 3に進みます。
再結合されている場合は、次の各手順を行なってノードをディスクデバイスグループから削除します。
ノードが正常にクラスタに再結合された場合は、残っているディスクデバイスグループからノードを削除します。
すべてのディスクデバイスグループからノードを削除するの手順を参照してください。
すべてのディスクデバイスグループからノードを削除したら、Sun Cluster ソフトウェアをクラスタノードからアンインストールするに戻って、その手順を繰り返します。
ノードがクラスタに再結合されなかった場合は、ノードの /etc/cluster/ccr ファイルを他の名前に変更します (たとえば、ccr.old)。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
Sun Cluster ソフトウェアをクラスタノードからアンインストールするに戻って、その手順を繰り返します。
ここでは、scinstall -r コマンドを実行したときに出力される可能性があるエラーメッセージとその対処方法について説明します。
次のエラーメッセージは、削除したノードに、 vfstab ファイルから参照されているクラスタファイルシステムがまだあることを示しています。
予期せぬ広域マウントが /etc/vfstab に残っていないことを確認しています ... 失敗しました scinstall: global-mount1 はまだ広域マウントとして構成されています scinstall: global-mount1 はまだ広域マウントとして構成されています scinstall: /global/dg1 はまだ広域マウントとして構成されています scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
このエラーを修正するためには、Sun Cluster ソフトウェアをクラスタノードからアンインストールするに戻って、その手順を繰り返す必要があります。scinstall -r を再実行する前に、この手順の手順 6 が正しく行なわれているか確認してください。
次のエラーメッセージは、削除したノードが依然としてディスクデバイスグループにリストされていることを示しています。
このノードを参照しているデバイスサービスが存在しないことを確認しています scinstall: このノードはまだ、デバイスサービス「service」をホストするように構成されています scinstall: このノードはまだ、デバイスサービス「service2」をホストするように構成されています scinstall: このノードはまだ、デバイスサービス「service3」をホストするように構成されています scinstall: このノードはまだ、デバイスサービス「dg1」をホストするように構成されています scinstall: このようなエラーが出たままアンインストールするのは scinstall: 安全ではありません。安全なアンインストールの手順に scinstall: ついては、ドキュメントを参照してください |