この章では、クラスタ全体に影響を与える項目の管理手順について説明します。
この章で説明する手順は次のとおりです。
タスク |
参照箇所 |
---|---|
クラスタ名を変更 | |
ノード ID およびそれらの対応するノード名の一覧の表示 | |
クラスタへの新しいノードの追加を許可または拒否 | |
Network Time Protocol (NTP) を使用してクラスタの時刻を変更 | |
『ノードを停止し、SPARC ベースシステムでは OpenBoot PROM の ok プロンプトに入り、x86 ベースシステムでは Boot Subsystem に入ります。 | |
プライベートホスト名を変更 | |
クラスタノードを保守状態に変更 | |
クラスタノードを保守状態から復帰 | |
ノードをクラスタに追加 | |
ノードをクラスタから削除 |
必要に応じて、初期インストール後にクラスタ名を変更できます。
クラスタ内にある任意のノード上でスーパーユーザーになります。
scsetup コマンドを起動します。
# scsetup |
メインメニューが表示されます。
クラスタ名を変更するには、8 (クラスタその他のプロパティー) を入力します。
「クラスタその他のプロパティー」メニューが表示されます。
メニューから選択を行って、画面の指示に従います。
次に、scsetup ユーティリティーから生成された scconf(1M) コマンドを使用して、新しいクラスタ名 dromedary に変更する例を示します。
# scconf -c -C cluster=dromedary |
Sun Cluster のインストール時に、各ノードには、自動的に一意のノード ID 番号が割り当てられます。このノード ID 番号は、最初にクラスタに加わったときの順番でノードに割り当てられます。一度割り当てられた番号は変更できません。ノード ID 番号は、通常、エラーメッセージが発生したクラスタノードを識別するために、エラーメッセージで使用されます。この手順を使用し、ノード ID とノード名間のマッピングを判別します。
構成情報の一覧を表示するために、スーパーユーザーになる必要はありません。
scconf(1M) コマンドを使用して、クラスタ構成情報の一覧を表示します。
% scconf -pv | grep "ノード ID" |
次に、ノード ID の割り当て例を示します。
% scconf -pv | grep “ノード ID” (phys-schost-1) ノード ID: 1 (phys-schost-2) ノード ID: 2 (phys-schost-3) ノード ID: 3 |
Sun Cluster により、新しいノードをクラスタに追加できるか、およびどのタイプの認証で追加するかを判別できます。パブリックネットワーク上のクラスタに加わる新しいノードを許可したり、新しいノードがクラスタに加わることを拒否したり、クラスタに加わるノードを特定できます。新しいノードは、標準 UNIX または Diffie-Hellman (DES) 認証を使用し、認証することができます。DES 認証を使用して認証する場合、ノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細については、keyserv(1M) および publickey(4) のマニュアルページを参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
scsetup(1M) ユーティリティーを実行します。
# scsetup |
メインメニューが表示されます。
クラスタ認証で作業するには、7 (新規ノード) を選択します。
「新規ノード」メニューが表示されます。
メニューから選択を行って、画面の指示に従います。
次に、新しいマシンがクラスタに追加されないようにする、scsetup ユーティリティーから生成された scconf コマンドの例を示します。
# scconf -a -T node=. |
次に、すべての新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティーから生成された scconf コマンドの例を示します。
# scconf -r -T all |
次に、単一の新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -a -T node=phys-schost-4 |
次に、クラスタに加わる新しいノードの認証を標準 UNIX 認証にリセットする、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -c -T authtype=unix |
次に、クラスタに加わる新しいノードで DES 認証を使用する、scsetup ユーティリティーから生成された scconf(1M) コマンドの例を示します。
# scconf -c -T authtype=des |
DES 認証を使用する場合、クラスタにノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細については、keyserv(1M) および publickey(4) のマニュアルページを参照してください。
Sun Cluster は、Network Time Protocol (NTP) を使用し、クラスタノード間で時刻を同期させています。クラスタの時刻の調整は、ノードが時刻を同期するときに、必要に応じて自動的に行われます。詳細については、『Sun Cluster の概念 (Solaris OS 版)』と『Network Time Protocol User's Guide』を参照してください。
NTP を使用する場合、クラスタの稼動中はクラスタの時刻を調整しないでください。このような調整には、date(1)、rdate(1M)、xntpd(1M)、svcadm(1M) などのコマンドを、対話的に使用したり、cron(1M) スクリプト内で使用する方法が含まれます。
クラスタ内にある任意のノード上でスーパーユーザーになります。
クラスタを停止します。
# scshutdown -g0 -y |
ノードが ok プロンプトの状態、あるいは「Current Boot Parameters」画面の Select (b)oot または (i)nterpreter プロンプトの状態になったことを確認します。
boot(1M) または b コマンドに -x オプションを指定し、ノードを非クラスタモードで起動します。
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
単一のノードで、date コマンドを実行して時刻を設定します。
# date HHMM.SS |
ほかのマシンで、rdate(1M) コマンドを実行し、時刻をこのノードに同期化します。
# rdate hostname |
各ノードを起動し、クラスタを再起動します。
# reboot |
すべてのクラスタノードで変更が行われたことを確認します。
各ノードで、date コマンドを実行します。
# date |
OpenBoot PROM 設定を構成または変更する必要がある場合は、この手順を使用します。
端末集配信装置 (コンセントレータ) ポートに接続します。
# telnet tc_name tc_port_number |
端末集配信装置 (コンセントレータ) の名前を指定します。
端末集配信装置のポート番号を指定します。ポート番号は構成に依存します。通常、ポート 2 (5002) と ポート 3 (5003) は、サイトで最初に設置されたクラスタで使用されています。
scswitch(1M) コマンドを使用し、クラスタノードを正常に停止し、任意のリソースまたはディスクデバイスグループを排除します。続いて、shutdown コマンドを実行します。
# scswitch -S -h node[,...] # shutdown -g0 -y -i0 |
クラスタノードを停止する場合は、クラスタコンソール上で send brk を使用してはいけません。
OBP コマンドを実行します。
インストール完了後、クラスタノードのプライベートホスト名を変更するには、次のようにします。
デフォルトのプライベートホスト名は、クラスタの初期インストール時に割り当てられます。デフォルトのプライベートホスト名の形式は、clusternode nodeid -priv です (clusternode3-priv など)。clusternode3-priv . プライベートホスト名を変更するのは、すでにその名前がドメイン内で使用されている場合だけにしてください。
新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。
クラスタ内のすべてのノード上で、プライベートホスト名をキャッシュする可能性があるデータサービスリソースやアプリケーションをすべて無効にします。
# scswitch -n -j resource1, resource2 |
無効にするアプリケーションには次のようなものがあります。
HA-DNS と HA-NFS サービス (構成している場合)
プライベートホスト名を使用するようにカスタマイズしているアプリケーション
クライアントがプライベートインターコネクト経由で使用しているアプリケーション
scswitch コマンドを使用する方法については、scswitch(1M) のマニュアルページと、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
クラスタ内の各ノード上で、Network Time Protocol (NTP) デーモンを停止します。
Solaris 8 または Solaris 9 を使用している場合は、xntpd コマンドを使用して NTP デーモンを停止してください。NTP デーモンの詳細については、xntpd (1M) のマニュアルページを参照してください。
# /etc/init.d/xntpd.cluster stop |
Solaris 10 を使用している場合は、svcadm コマンドを使用して NTP デーモンを停止してください。NTP デーモンの詳細については、svcadm(1M) のマニュアルページを参照してください。
# svcadm disable ntp |
scsetup(1M) ユーティリティーを実行して、適切なノードのプライベートホスト名を変更します。
この手順は、クラスタ内の 1 つのノードから行うだけでかまいません。
新しいプライベートホスト名を選択するときには、その名前がクラスタノード内で一意であることを確認してください。
「メインメニュー」から 6 (プライベートホスト名) を選択します。
「プライベートホスト名メニュー」から 1「プライベートホスト名を変更」を選択します。
表示される質問に答えます。ここでは、プライベートホスト名を変更するノードの名前 (clusternode<nodeid>-priv) と新しいプライベートホスト名を問い合わせられます。
ネームサービスキャッシュをフラッシュします。
この手順は、クラスタ内の各ノード上で行います。この作業によって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスすることを防ぎます。
# nscd -i hosts |
各ノードで ntp.conf.cluster ファイルを編集し、プライベートホスト名を新しいものに変更します。
編集するツールは任意のものを使用できます。
この手順をインストール時に行う場合は、構成するノードの名前を削除する必要があります。デフォルトのテンプレートには 16 のノードが事前構成されています。通常 ntp.conf.cluster ファイルは各クラスタノード上で同じです。
すべてのクラスタノードから新しいプライベートホスト名に ping を実行して応答を確認します。
NTP デーモンを再起動します。
この手順は、クラスタ内の各ノード上で行います。
Solaris 8 または Solaris 9 を使用している場合は、xntpd コマンドを使用して NTP デーモンを再起動してください。
# /etc/init.d/xntpd.cluster start |
Solaris 10 を使用している場合は、svcadm コマンドを使用して NTP デーモンを再起動してください。
# svcadm enable ntp |
手順 1 で無効にしたデータサービスリソースとその他のアプリケーションをすべて有効にします。
# scswitch -e -j resource1, resource2 |
scswitch コマンドを使用する方法については、scswitch のマニュアルページと『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
次に、ノード phys-schost-2 上のプライベートホスト名 clusternode2-priv を clusternode4-priv に変更する例を示します。
[必要に応じてすべてのアプリケーションとデータサービスを無効化する] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# scconf -p | grep ノード ... クラスタノード: phys-schost-1 phys-schost-2 phys- schost-3 クラスタノード名: phys-schost-1 ノードのプライベートホスト名: clusternode1-priv クラスタノード名: phys-schost-2 ノードのプライベートホスト名: clusternode2-priv クラスタノード名: phys-schost-3 ノードのプライベートホスト名: clusternode3-priv ... phys-schost-1# scsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [手順の初めで無効化したすべてのアプリケーションとデータサービスを有効化する] |
サービスからクラスタノードを長時間はずす場合は、そのノードを保守状態にします。保守状態のノードは、サービス対象中に定足数確立の投票に参加しません。クラスタノードを保守状態にするには、scswitch(1M) と shutdown(1M) を使用してこのノードを停止する必要があります。
ノードを 1 つだけ停止する場合は、Solaris の shutdown コマンドを使用します。scshutdown コマンドは、クラスタ全体を停止する場合にだけ使用します。
クラスタノードが停止されて保守状態になると、そのノードのポートで構成されるすべての定足数デバイスの、定足数投票数 (quorum vote count) が 1 つ減ります。このノードが保守状態から移動してオンラインに戻されると、ノードおよび定足数デバイスの投票数は 1 つ増えます。
クラスタノードを保守状態にするには、scconf(1M) コマンドを使用する必要があります。scsetup(1M) ユーティリティーには、定足数デバイスを保守状態にする機能はありません。
保守状態にするノードでスーパーユーザーになります。
すべてのリソースグループとディスクデバイスグループをノードから退避します。
# scswitch -S -h node[,...] |
指定したノードからすべてのデバイスサービスとリソースグループを退避します。
リソースグループとデバイスグループを切り替えるノードを指定します。
退避させたノードを停止します。
# shutdown -g0 -y -i0 |
クラスタ内の別のノードでスーパーユーザーになり、手順 3 で停止したノードを保守状態にします。
# scconf -c -q node=node,maintstate |
scconf コマンドの変更フォームを指定します。
定足数オプションを管理します。
変更するノードのノード名またはノード ID を指定します。
ノードを保守状態にします。
クラスタノードが保守状態にあることを確認します。
# scstat -q |
保守状態にしたノードの状態はオフラインであり、その Present と Possible の定足数投票数は 0 (ゼロ) である必要があります。
次に、クラスタノードを保守状態にして、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 のノードの投票数は 0 (ゼロ) で、その状態はオフラインです。定足数の概要では、投票数も減っているはずです。構成によって異なりますが、Quorum Votes by Device の出力では、いくつかの定足数ディスクデバイスも offline である可能性があります。
[保守状態にするノード上で次を実行する:] phys-schost-1# scswitch -S -h phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [クラスタ内の別のノード上:] phys-schost-2# scconf -c -q node=phys-schost-1,maintstate phys-schost-2# scstat -q -- 定足数の概要 -- 可能な定足数投票数: 2 必要な定足数投票数: 2 現在の定足数投票数: 2 -- ノードによる定足数の投票数 -- ノード名 現在の数 可能な数 状態 --------- ------- -------- ------ ノードの投票数: phys-schost-1 0 0 Offline ノードの投票数: phys-schost-2 1 1 Online ノードの投票数: phys-schost-3 1 1 Online -- デバイスによる定足数の投票数 -- デバイス名 現在の数 可能な数 状態 ----------- ------- -------- ------ デバイスの投票数: /dev/did/rdsk/d3s2 0 0 Offline デバイスの投票数: /dev/did/rdsk/d17s2 0 0 Offline デバイスの投票数: /dev/did/rdsk/d31s2 1 1 Online |
ノードをオンライン状態に戻す方法については、「ノードを保守状態から戻す」を参照してください。
次の手順を使用して、ノードをオンラインに戻し、定足数投票数をリセットしてデフォルト設定に戻します。クラスタノードのデフォルトの投票数は 1 です。定足数デバイスのデフォルトの投票数は N-1 です。N は、投票数が 0 以外で、定足数デバイスが構成されているポートを持つノードの数を示します。
ノードが保守状態になると、そのノードの投票数は 1 つ減ります。また、このノードのポートに構成されているすべての定足数デバイスの投票数も (1 つ) 減ります。投票数がリセットされ、ノードが保守状態から戻されると、ノードの投票数と定足数デバイスの投票数の両方が 1 つ増えます。
保守状態にしたノードを保守状態から戻した場合は、必ずこの手順を実行してください。
globaldev または node オプションのどちらも指定しない場合、定足数投票数はクラスタ全体でリセットされます。
保守状態ではない任意のクラスタノード上でスーパーユーザーになります。
2 ノードクラスタでノードを保守状態から戻そうとしているかどうかを確認します。
定足数を使用する場合は、保守状態ではないノードのクラスタ定足数投票数をリセットします。
保守状態ではないノードの定足数投票数をリセットするのは、そのノードを再起動する前である必要があります。そうしないと、定足数の確立を待機してハングアップすることがあります。
# scconf -c -q node=node,reset |
scconf コマンドの変更フォームを指定します。
定足数オプションを管理します。
リセットするノードの名前を指定します (phys-schost-1 など)。
定足数をリセットする変更フラグです。
保守状態から戻したいノードを起動します。
定足数投票数を確認します。
# scstat -q |
保守状態から戻したいノードの状態は online であり、Present と Possible の定足数投票数は適切な値である必要があります。
次に、クラスタノードの定足数投票数をリセットして、その定足数デバイスをデフォルトに戻し、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 の Node votes は 1 であり、その状態は online です。Quorum Summary では、投票数も増えているはずです。
phys-schost-2# scconf -c -q node=phys-schost-1,reset |
phys-schost-1 上で次のように実行する:
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
phys-schost-1# scstat -q -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 1 1 Online Device votes: /dev/did/rdsk/d17s2 1 1 Online Device votes: /dev/did/rdsk/d31s2 1 1 Online |
次の表に、ノードを既存のクラスタに追加するときに行う作業を示します。これらの作業を正常に行うには、示された順番に従う必要があります。
表 7–2 Task Map: 既存のクラスタへのクラスタノードの追加
タスク |
参照箇所 |
---|---|
ホストアダプタのノードへの取り付けと、既存のクラスタインターコネクトが新しいノードをサポートできることの確認 |
『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』 |
共有記憶装置の追加 |
『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』 |
認証ノードリストへのノードの追加 - scsetup を使用します。 | |
新しいクラスタノードへのソフトウェアのインストールと構成 - Solaris オペレーティングシステムおよび Sun Cluster ソフトウェアをインストールします。 - クラスタの一部としてノードを構成します。 |
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の第 2 章「Sun Cluster ソフトウェアのインストールと構成」 |
次の表に、ノードを既存のクラスタから削除するときに行う作業を示します。これらの作業を正常に行うには、示された順番に従う必要があります。
OPS 構成を実行しているクラスタでは、この手順を実行してはいけません。現時点では、OPS 構成のノードを削除すると、他のノードがリブート時にパニックを起こす可能性があります。
タスク |
参照箇所 |
---|---|
削除したいノードからすべてのリソースグループとディスクデバイスグループを移動 - scswitch(1M) を使用します |
# scswitch -S -h from-node |
すべてのリソースグループからノードを削除 - scrgadm(1M) を使用します | |
すべてのディスクデバイスグループからノードを削除 - scconf(1M)、metaset(1M)、および scsetup(1M) を使用します |
「ディスクデバイスグループからノードを削除する (Solstice DiskSuite/Solaris Volume Manager)」 「SPARC: ディスクデバイスグループからノードを削除する (VERITAS Volume Manager)」 「SPARC: raw ディスクデバイスグループからノードを削除する」 注意:望ましい二次ノードの数を 2 つ以上に構成する場合は、1 に減らす必要があります。 |
完全に接続された定足数デバイスをすべて削除する - scsetup を使用します。 |
注意:2 ノードクラスタからノードを削除している場合、定足数デバイスを削除してはなりません。
次の手順では、ストレージデバイスを削除する前に定足数デバイスを削除する必要がありますが、定足数デバイスはその直後に追加し直すことができます。 |
ノードから完全に接続されたストレージデバイスをすべて削除する - devfsadm(1M)、scdidadm(1M) を使用します。 |
注意:2 ノードクラスタからノードを削除している場合、定足数デバイスを削除してはなりません。 「2 ノード接続より大きなクラスタでアレイと単一ノード間の接続を削除する」 |
定足数デバイスを再び追加する (クラスタに残しておきたいノードのみ) - scconf -a -q globaldev=d[n],node= node1,node=node2 を使用します |
scconf(1M) |
削除するノードを保守状態に変更 - scswitch(1M)、shutdown(1M)、および scconf(1M) を使用します。 | |
削除するノードに対するすべての論理トランスポート接続 (トランスポートケーブルとアダプタ) を削除 - scsetup を使用します。 | |
削除するノードに接続されているすべての定足数デバイスを削除する - scsetup、scconf(1M) を使用します。 | |
クラスタソフトウェア構成からノードを削除 - scconf(1M) を使用します。 |
既存のクラスタにマシンを追加する前に、プライベートクラスタインターコネクトとの物理的な接続が正確に行われているかなど、必要なハードウェアがすべて正確にノードにインストールおよび構成されていることを確認してください。
ハードウェアのインストールについては、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』または各サーバーに付属のハードウェアマニュアルを参照してください。
この手順によって、マシンは自分自身をクラスタ内にインストールします。つまり、自分のノード名を当該クラスタの認証ノードリストに追加します。
この手順を行うには、現在のクラスタメンバー上でスーパーユーザーになる必要があります。
「クラスタノードの追加と削除」の作業マップに記載されている必要不可欠なハードウェアのインストール作業と構成作業をすべて正しく完了していることを確認します。
scsetup コマンドを起動します。
# scsetup |
メインメニューが表示されます。
「新規ノード」メニューにアクセスするには、「メインメニュー」で 7 を選択します。
認証ノードリストを変更するには、「新規ノード」メニューで 3 を選択して、自分自身を追加するマシンの名前を指定します。
指示に従って、ノードの名前をクラスタに追加します。追加するノードの名前が問い合わせられます。
作業が正常に行われたことを確認します。
作業が正常に行われた場合、scsetup ユーティリティーは「コマンドが正常に完了しました」というメッセージを表示します。
scsetup ユーティリティーを終了します。
新しいクラスタノード上でソフトウェアをインストールして構成します。
scinstall または JumpStartTM を使用して、新しいノードのインストールと構成を完了します (『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照)。
新しいマシンをクラスタに追加できないように設定するには、「新規ノード」メニューで 1 を入力します。
scsetup の指示に従います。このオプションを設定すると、クラスタは、新しいマシンが自分自身をクラスタに追加しようとするパブリックネットワーク経由の要求をすべて無視します。
次に、ノード phys-schost-3 を既存のクラスタの認証ノードリストに追加する例を示します。
[スーパーユーザーになり、scsetup ユーティリティーを実行する ] # scsetup 新規ノードを選択します > 追加するマシンの名前を指定します プロンプトが表示されたら、 質問に答えます scconf コマンドが正常に終了したことを確認します scconf -a -T node=phys-schost-3 コマンドが正常に完了しました 「新規マシンはクラスタに追加しない」を選択します scsetup 新規ノードメニューとメインメニューを停止する [クラスタソフトウェアをインストールする] |
クラスタノードを追加する作業の概要については、表 7–2 の「作業マップ : クラスタノードの追加」を参照してください。
ノードを既存のリソースグループに追加する方法については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
「クラスタノードの追加と削除」の「作業マップ: クラスタノードの削除」に記載されている必要不可欠な作業をすべて正しく完了していることを確認します。
この手順を実行する前に、ノードをすべてのリソースグループ、ディスクデバイスグループ、および定足数デバイスの構成から削除していること、および、このノードを保守状態にしていることを確認します。
削除するノード以外のクラスタノードでスーパーユーザーになります。
クラスタからノードを削除します。
# scconf -r -h node=node-name |
scstat(1M) を使用して、ノードが削除されていることを確認します。
# scstat -n |
削除するノードから Sun Cluster ソフトウェアをアンインストールする予定かどうかを確認します。
アンインストールする場合は、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に進みます。あるいは、Solaris ソフトウェアをインストールし直してもかまいません。
アンインストールしない場合、ノードをクラスタから物理的に取り外すには、ハードウェア接続を切断します (『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』を参照)。
次に、ノード phys-schost-2 をクラスタから削除する例を示します。すべてのコマンドは、クラスタの別のノード (phys-schost-1) から実行します。
[クラスタからノードを削除する:] phys-schost-1# scconf -r -h node=phys-schost-2 [ノードの削除を確認する:] phys-schost-1# scstat -n -- クラスタノード -- ノード名 状態 --------- ------ クラスタノード: phys-schost-1 オンライン |
削除するノードから Sun Cluster ソフトウェアをアンインストールする方法については、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」を参照してください。
ハードウェア手順については、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』を参照してください。
クラスタノードを削除する作業の概要については、表 7–3 を参照してください。
ノードを既存のクラスタに追加する方法については、「ノードを認証ノードリストに追加する」を参照してください。
3 ノードまたは 4 ノード接続のクラスタでストレージアレイを単一クラスタノードから取り外すには、次の手順を使用します。
取り外す予定のストレージアレイに関連付けられているすべてのデータベーステーブル、データサービス、ボリュームのバックアップを作成します。
切断する予定のノードで動作しているリソースグループとデバイスグループを判別します。
# scstat |
必要であれば、切断する予定のノードからすべてのリソースグループとデバイスグループを移動します。
Oracle Parallel Server/Real Application Clusters ソフトウェアをクラスタで実行している場合、グループをノードから移動する前に、動作している Oracle Parallel Server/Real Application Clusters データベースのインスタンスを停止します。手順については、『Oracle Database Administration Guide』を参照してください。
# scswitch -S -h from-node |
デバイスグループを保守状態にします。
Veritas 共有ディスクグループへの入出力活動を休止させる手順については、VxVM のマニュアルを参照してください。
デバイスグループを保守状態にする手順については、第 7 章「クラスタの管理」を参照してください。
デバイスグループからノードを削除します。
VxVM または raw ディスクを使用している場合は、scconf(1M) コマンドを使用して、デバイスグループを削除します。
Solstice DiskSuite を使用している場合は、metaset コマンドを使用して、デバイスグループを削除します。
クラスタで HAStorage または HAStoragePlus を実行している場合は、リソースグループのノードリストからノードを削除します。
# scrgadm -a -g resource-group -h nodelist |
リソースグループのノードリストを変更する方法の詳細については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
scrgadm を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティー名に大文字と小文字の区別はありません。
削除する予定のストレージアレイがノードに接続されている最後のストレージアレイである場合、当該ストレージアレイに接続されているハブまたはスイッチとノードの間にある光ケーブルを取り外します (そうでない場合、この手順を飛ばします)。
切断する予定のノードからホストアダプタを削除するかどうかを確認します。
削除する場合は、ノードを停止して、ノードの電源を切断します。
削除しない場合は、手順 11 に進みます。
ノードからホストアダプタを削除します。
ホストアダプタを削除する手順については、ノードに付属しているマニュアルを参照してください。
起動が行われないようにして、ノードに電源を入れます。
ノードを非クラスタモードで起動します。
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
次のステップで Oracle Parallel Server/Real Application Clusters ソフトウェアを削除する前に、あらかじめノードを非クラスタモードにする必要があります。非クラスタモードにしないと、ノードにパニックが発生してデータの可用性が失われる可能性があります。
SPARC:Oracle Parallel Server/Real Application Clusters ソフトウェアがインストールされている場合、切断する予定のノードからそのパッケージを削除します。
# pkgrm SUNWscucm |
切断する予定のノードから Oracle Parallel Server/Real Application Clusters ソフトウェアを削除しなければ、そのノードをクラスタに導入し直したときに、ノードにパニックが発生して、データの可用性が失われる可能性があります。
ノードをクラスタモードで起動します。
SPARC:
ok boot |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
ノードの /devices と /dev エントリを更新して、デバイスの名前空間を更新します。
# devfsadm -C # scdidadm -C |
デバイスグループをオンラインに戻します。
VERITAS 共有ディスクグループをオンラインにする手順については、VERITAS Volume Manager のマニュアルを参照してください。
デバイスグループをオンラインにする手順については、「デバイスグループを保守状態にする」の手順を参照してください。
完全に確立されたクラスタ構成からクラスタノードを切り離す前に、クラスタノードから Sun Cluster ソフトウェアをアンインストールするには、この手順を使用します。この手順では、クラスタに存在する最後のノードからソフトウェアをアンインストールできます。
クラスタにまだ結合されていない、あるいはまだインストールモードであるノードから Sun Cluster ソフトウェアをアンインストールする場合、この手順を使用してはいけません。その代わりに、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「Sun Cluster ソフトウェアをアンインストールしてインストール問題を解決する」に進みます。
クラスタノードの削除に必要なすべての前提条件 (作業マップを参照) が完了しているか確認します。
「クラスタノードの追加と削除」を参照してください。
この手順を行う前に、すべてのリソースグループやデバイスグループ、定足数構成からこのノードが削除され、保守状態に置かれ、クラスタから削除されていることを確認してください。
アンインストールを行なうノード以外のアクティブなクラスタメンバー上でスーパーユーザーになります。
アクティブなクラスタメンバーから、アンインストールを行うノードをクラスタ のノード認証リストに追加します。
# scconf -a -T node=nodename |
ノードを追加します。
認証オプションを指定します。
認証リストに追加するノードの名前を指定します。
あるいは、scsetup(1M) ユーティリティーも使用できます。手順については、「ノードを認証ノードリストに追加する」を参照してください。
アンインストールするノードでスーパーユーザーになります。
ノードを再起動して、非クラスタモードにします。
SPARC:
# shutdown -g0 -y -i0ok boot -x |
x86:
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
/etc/vfstab ファイルから、広域的にマウントされるすべてのファイルシステムエントリを削除します。ただし、/global/.devices 広域マウントを除きます。
ノードから Sun Cluster ソフトウェアをアンインストールします。
Sun Cluster パッケージとは関係のないディレクトリから次のコマンドを実行します。
# cd / # scinstall -r |
詳細については、scinstall(1M) のマニュアルページを参照してください。scinstall からエラーメッセージが返される場合は、「削除されていないクラスタファイルシステムエントリがある場合」を参照してください。
他のクラスタデバイスからトランスポートケーブルとトランスポート接続点 (ある場合) を切り離します。
前の節のエラーメッセージを修正するには、次の手順を実行します。
ノードのクラスタへの再結合を試みます。
# boot |
ノードがクラスタに正常に再結合されているかどうかを確認します。
再結合されていない場合は、手順 3 に進みます。
再結合されている場合は、次の各手順を行なってノードをディスクデバイスグループから削除します。
ノードが正常にクラスタに再結合された場合は、残っているディスクデバイスグループからノードを削除します。
「すべてのディスクデバイスグループからノードを削除する」の作業を行います。
すべてのディスクデバイスグループからノードを削除したあと、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に戻り、その手順を繰り返します。
ノードがクラスタに再結合されなかった場合は、ノードの /etc/cluster/ccr ファイルを他の名前に変更します (たとえば、ccr.old)。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に戻り、その手順を繰り返します。
ここでは、scinstall -r コマンドを実行したときに出力される可能性があるエラーメッセージとその対処方法について説明します。
次のエラーメッセージは、削除したノードに、 vfstab ファイルから参照されているクラスタファイルシステムがまだあることを示しています。
予期せぬ広域マウントが /etc/vfstab に残っていないことを確認しています ... 失敗しました scinstall: global-mount1 はまだ広域マウントとして構成されています scinstall: global-mount1 はまだ広域マウントとして構成されています scinstall: /global/dg1 はまだ広域マウントとして構成されています scinstall: このようなエラーが出たままアンインストールするのは安全ではありません。 scinstall: 安全なアンインストール手順については、ドキュメントを参照してください。 scinstall: アンインストールが失敗しました。 |
このエラーを修正するためには、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に戻って、その手順を繰り返す必要があります。scinstall -r を実行する前に、この手順 6 が正しく行われているか確認してください。
次のエラーメッセージは、削除したノードが依然としてディスクデバイスグループにリストされていることを示しています。
このノードを参照しているデバイスサービスが存在しないことを確認しています ... 失敗しました scinstall: このノードはまだ、デバイスサービス「service」をホストするように構成されています scinstall: このノードはまだ、デバイスサービス「service2」をホストするように構成されています scinstall: このノードはまだ、デバイスサービス「service3」をホストするように構成されています scinstall: このノードはまだ、デバイスサービス「dg1」をホストするように構成されています scinstall: このようなエラーが出たままアンインストールするのは安全ではありません。 scinstall: 安全なアンインストールの手順については、ドキュメントを参照してください。 scinstall: アンインストールが失敗しました。 |