この章では、グローバルクラスタやゾーンクラスタの全体に影響する項目の管理手順について説明します。
このセクションでは、グローバルクラスタやゾーンクラスタ全体の管理作業を実行する方法を説明します。次の表に、これらの管理作業と、関連する手順を示します。Solaris 10 OS の場合、クラスタの管理作業は通常は大域ゾーンで行います。ゾーンクラスタを管理するには、そのゾーンクラスタをホストするマシンが 1 台以上クラスタモードで起動していることが必要です。すべてのゾーンクラスタノードが起動し動作している必要はありません。現在クラスタ外にあるノードがクラスタに再結合すると、構成の変更点が Sun Cluster によって再現されます。
この章での phys-schost# は、グローバルクラスタのプロンプトを表します。clzonecluster の対話型シェルプロンプトは clzc:schost> です。
表 8–1 作業リスト : クラスタの管理
作業 |
参照先 |
---|---|
クラスタ名を変更 | |
ノード ID およびそれらの対応するノード名の一覧の表示 | |
クラスタへの新しいノードの追加を許可または拒否 | |
Network Time Protocol (NTP) を使用してクラスタの時刻を変更 | |
ノードを停止し、SPARC ベースのシステムでは OpenBoot PROM ok プロンプト、x86 ベースのシステムでは GRUB メニューで「Press any key to continue」というメッセージを表示 | |
ホスト名を非公開にする | |
クラスタノードを保守状態に変更 | |
クラスタノードを保守状態から復帰 | |
ノードをクラスタに追加 | |
ノードをクラスタから削除 | |
ゾーンクラスタの移動と、アプリケーション用のゾーンクラスタの準備 | |
ノードから Sun Cluster ソフトウェアをアンインストールします。 | |
エラーメッセージの修正 |
必要に応じて、初期インストール後にクラスタ名を変更できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタ内にある任意のノード上でスーパーユーザーになります。
clsetup ユーティリティーを起動します。
phys-schost# clsetup |
メインメニューが表示されます。
クラスタ名を変更するには、クラスタその他のプロパティーのオプションに対応する番号を入力します。
「クラスタその他のプロパティー」メニューが表示されます。
メニューから選択を行って、画面の指示に従います。
Sun Cluster のサービスタグに新しいクラスタ名を反映させる場合は、既存の Sun Cluster タグを削除してクラスタを再起動します。Sun Cluster サービスタグインスタンスを削除するには、クラスタ内のすべてのノードで次のサブステップを完了します。
次の例に、新しいクラスタ名 dromedary へ変更するために、clsetup(1CL) ユーティリティーから生成される cluster(1CL) コマンドを示します。
phys-schost# cluster -c dromedary |
Sun Cluster のインストール中、ノードにはそれぞれ一意のノード ID 番号が自動で割り当てられます。このノード ID 番号は、最初にクラスタに加わったときの順番でノードに割り当てられます。ノード ID 番号が割り当てられたあとでは、番号は変更できません。ノード ID 番号は、通常、エラーメッセージが発生したクラスタノードを識別するために、エラーメッセージで使用されます。この手順を使用し、ノード ID とノード名間のマッピングを判別します。
グローバルクラスタまたはゾーンクラスタ用の構成情報を表示するために、スーパーユーザーになる必要はありません。グローバルクラスタのノードから、このプロシージャーの 1 ステップが実行されます。他のステップはゾーンクラスタノードから実行されます。
clnode(1CL) コマンドを使用して、グローバルクラスタに対するクラスタ構成情報を一覧表示します。
phys-schost# clnode show | grep Node |
1 つのゾーンクラスタに対して、複数のノード ID を一覧表示することも可能です。ゾーンクラスタノードは、実行中のグローバルクラスタノードと同じノード ID を持っています。
phys-schost# zlogin sczone clnode -v | grep Node |
次の例は、グローバルクラスタに対するノード ID の割り当てを示しています。
phys-schost# clnode show | grep Node === Cluster Nodes === Node Name: phys-schost1 Node ID: 1 Node Name: phys-schost2 Node ID: 2 Node Name: phys-schost3 Node ID: 3 |
Sun Cluster では、新しいノードをグローバルクラスタに追加できるようにするかどうかと、使用する認証の種類を指定できます。パブリックネットワーク上のクラスタに加わる新しいノードを許可したり、新しいノードがクラスタに加わることを拒否したり、クラスタに加わるノードを特定できます。新しいノードは、標準 UNIX または Diffie-Hellman (DES) 認証を使用し、認証することができます。DES 認証を使用して認証する場合、ノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細は、keyserv(1M) と publickey(4) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタ内にある任意のノード上でスーパーユーザーになります。
clsetup(1CL) ユーティリティーを起動します。
phys-schost# clsetup |
メインメニューが表示されます。
クラスタ認証で作業するため、新規ノードのオプションに対応する番号を入力します。
「新規ノード」メニューが表示されます。
メニューから選択を行って、画面の指示に従います。
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、新しいマシンがクラスタに追加されないようにする claccess コマンドを示しています。
phys-schost# claccess deny -h hostname |
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、すべての新しいマシンをクラスタに追加できるようにする claccess コマンドを示しています。
phys-schost# claccess allow-all |
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、1 台の新しいマシンをクラスタに追加できるようにする claccess コマンドを示しています。
phys-schost# claccess allow -h hostname |
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、クラスタに参加している新規ノードの標準 UNIX 認証に対し、リセットを行う claccess コマンドを示しています。
phys-schost# claccess set -p protocol=sys |
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、クラスタに参加している新規ノードの DES 認証を使用する claccess コマンドを示しています。
phys-schost# claccess set -p protocol=des |
DES 認証を使用する場合、クラスタにノードが加わるには、すべての必要な暗号化鍵を構成します。詳細は、keyserv(1M) と publickey(4)のマニュアルページを参照してください。
Sun Cluster ソフトウェアは、Network Time Protocol (NTP) を使用し、クラスタノード間で時刻を同期させています。グローバルクラスタの時刻の調整は、ノードが時刻を同期するときに、必要に応じて自動的に行われます。詳細は、『Sun Cluster の概念 (Solaris OS 版)』および『Network Time Protocol User's Guide』を参照してください。
NTP を使用する場合、クラスタの稼動中はクラスタの時刻を調整しないでください。date(1)、rdate(1M)、xntpd(1M)、svcadm(1M) などのコマンドを、対話的に使用したり、cron(1M) スクリプト内で使用して時刻を調整しないでください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタ内にある任意のノード上でスーパーユーザーになります。
グローバルクラスタを停止します。
phys-schost# cluster shutdown -g0 -y -i 0 |
SPARC ベースのシステムではノードが ok プロンプトを表示し、x86 ベースのシステムでは GRUB メニューで「Press any key to continue」というメッセージが表示されていることを確認します。
非クラスタモードでノードを起動します。
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot -x |
x86 ベースのシステム上で、次のコマンドを実行します。
# shutdown -g -y -i0 Press any key to continue |
GRUB メニューで矢印キーを使用して該当する Solaris エントリを選択し、e と入力してコマンドを編集します。
GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
ブートパラメータの画面で、矢印キーを使用してカーネルエントリを選択し、e を入力してエントリを編集します。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
コマンドに -x を追加して、システムを非クラスタモードで起動するように指定します。
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Enter キーを押して変更を受け入れ、ブートパラメータの画面に戻ります。
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
b と入力して、ノードを非クラスタモードで起動します。
カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。クラスタモードではなく、非クラスタモードで起動するには、これらの手順を再度実行して、カーネル起動パラメータコマンドに -x オプションを追加します。
単一のノードで、date コマンドを実行して時刻を設定します。
phys-schost# date HHMM.SS |
ほかのマシンで、rdate(1M) コマンドを実行し、時刻をこのノードに同期化します。
phys-schost# rdate hostname |
各ノードを起動し、クラスタを再起動します。
phys-schost# reboot |
すべてのクラスタノードで変更が行われたことを確認します。
各ノードで、date コマンドを実行します。
phys-schost# date |
OpenBoot™ PROM 設定を構成または変更する必要がある場合は、この手順を使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
停止するノード上でコンソールに接続します。
# telnet tc_name tc_port_number |
端末集配信装置 (コンセントレータ) の名前を指定します。
端末集配信装置のポート番号を指定します。ポート番号は構成に依存します。通常、ポート 2 (5002) と ポート 3 (5003) は、サイトで最初に設置されたクラスタで使用されています。
clnode evacuate コマンドを使用してから、shutdown コマンドを使用することで、クラスタノードを正常に停止します。clnode evacuate コマンドは、すべてのデバイスグループを、指定ノードから次に優先されるノードに切り替えます。またこのコマンドは、グローバルクラスタ内の指定された投票ノードまたは非投票ノードから、次に優先される投票ノードまたは非投票ノードに、すべてのリソースグループを切り替えます。
phys-schost# clnode evacuate node # shutdown -g0 -y |
クラスタノードを停止する場合は、クラスタコンソール上で send brk を使用してはいけません。
OBP コマンドを実行します。
このプロシージャーを使用して、インストール終了後にクラスタノードのプライベートホスト名を変更します。
デフォルトのプライベートホスト名は、クラスタの初期インストール時に割り当てられます。デフォルトのプライベートホスト名の形式は、clusternode<nodeid>-priv です (clusternode3-priv など)。名前がすでにドメイン内で使用されている場合にかぎり、プライベートホスト名を変更します。
新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
クラスタ内のすべてのノード上で、プライベートホスト名をキャッシュする可能性があるデータサービスリソースやアプリケーションをすべて無効にします。
phys-schost# clresource disable resource[,...] |
無効にするアプリケーションには次のようなものがあります。
HA-DNS と HA-NFS サービス (構成している場合)
プライベートホスト名を使用するためにカスタム構成されたアプリケーション
クライアントがプライベートインターコネクト経由で使用しているアプリケーション
clresource コマンドの使用に関する詳細は、clresource(1CL) のマニュアルページおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
NTP 構成ファイルが、変更しようとするプライベートホスト名を参照している場合、クラスタの各ノード上で Network Time Protocol (NTP) デーモンを停止します。
SPARC: Solaris 9 OS を使用している場合は、xntpd コマンドを使用して NetworkTime Protocol (NTP) デーモンを停止してください。NTP デーモンについての詳細は、xntpd(1M) のマニュアルページを参照してください。
phys-schost# /etc/init.d/xntpd.cluster stop |
Solaris 10 OS を使用している場合は、svcadm コマンドを使用して NetworkTime Protocol (NTP) デーモンを停止してください。NTP デーモンについての詳細は、svcadm(1M) のマニュアルページを参照してください。
phys-schost# svcadm disable ntp |
clsetup(1CL) ユーティリティーを実行して、適切なノードのプライベートホスト名を変更します。
クラスタ内の 1 つのノードでのみユーティリティーを実行します。
新しいプライベートホスト名を選択するときには、その名前がクラスタノード内で一意であることを確認してください。
プライベートホスト名用のオプションに対応する番号を入力します。
プライベートホスト名を変更するためのオプションに対応する番号を入力します。
表示される質問に答えます。変更しようとしているプライベートホスト名のノード名 (clusternode<nodeid> -priv) および新しいプライベートホスト名を入力してください。
ネームサービスキャッシュをフラッシュします。
クラスタの各ノードで次の手順を実行します。フラッシュすることによって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスしないようにします。
phys-schost# nscd -i hosts |
NTP 構成ファイルでプライベートホスト名を変更した場合、各ノード上で NTP 構成ファイル (ntp.conf または ntp.conf.cluster) を更新します。
任意のエディタを使用してください。
この手順をインストール時に行う場合は、構成するノードの名前を削除する必要があります。デフォルトのテンプレートには 16 のノードが事前構成されています。通常 ntp.conf.cluster ファイルは各クラスタノード上で同じです。
すべてのクラスタノードから新しいプライベートホスト名に ping を実行できることを確認します。
NTP デーモンを再起動します。
クラスタの各ノードで次の手順を実行します。
SPARC: Solaris 9 OS を使用している場合は、xntpd コマンドを使用して NTP デーモンを再起動してください。
ntp.conf.cluster ファイルを使用している場合は、次のように入力します。
# /etc/init.d/xntpd.cluster start |
ntp.conf ファイルを使用している場合は、次のように入力します。
# /etc/init.d/xntpd start |
Solaris 10 OS を使用している場合は、svcadm コマンドを使用して NTP デーモンを再起動してください。
# svcadm enable ntp |
手順 1 で無効にしたデータサービスリソースとそのほかのアプリケーションをすべて有効にします。
phys-schost# clresource disable resource[,...] |
scswitch コマンドの使用に関する詳細は、clresource(1CL) のマニュアルページおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
次に、ノード phys-schost-2 上のプライベートホスト名 clusternode2-priv を clusternode4-priv に変更する例を示します。
[Disable all applications and data services as necessary.] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# clnode show | grep node ... private hostname: clusternode1-priv private hostname: clusternode2-priv private hostname: clusternode3-priv ... phys-schost-1# clsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure.] |
インストール完了後、グローバルクラスタ上の非投票ノードのプライベートホスト名を追加するには、次の手順を使用します。この章の手順の phys-schost# は、グローバルクラスタプロンプトを表します。この手順は、グローバルクラスタ上のみで実行します。
clsetup(1CL) ユーティリティーを実行して、適切なゾーンにプライベートホスト名を追加します。
phys-schost# clsetup |
プライベートホスト名のオプションに対応する番号を入力し、Return キーを押します。
ゾーンプライベートホスト名を追加するためのオプションに対応する番号を入力し、Return キーを押します。
表示される質問に答えます。グローバルクラスタの非投票ノードには、デフォルトのプライベートホスト名はありません。ホスト名を入力する必要があります。
インストール完了後、非投票ノードのプライベートホスト名を変更するには、次の手順を使用します。
プライベートホスト名は、クラスタの初期インストール時に割り当てられます。プライベートホスト名の形式は、clusternode<nodeid>-priv です (clusternode3-priv など)。名前がすでにドメイン内で使用されている場合にかぎり、プライベートホスト名を変更します。
新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタ内のすべてのノード上で、プライベートホスト名をキャッシュする可能性があるデータサービスリソースやアプリケーションをすべて無効にします。
phys-schost# clresource disable resource1, resource2 |
無効にするアプリケーションには次のようなものがあります。
HA-DNS と HA-NFS サービス (構成している場合)
プライベートホスト名を使用するためにカスタム構成されたアプリケーション
クライアントがプライベートインターコネクト経由で使用しているアプリケーション
clresourceコマンドの使用に関する詳細は、clresource(1CL) のマニュアルページおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
clsetup(1CL) ユーティリティーを実行して、グローバルクラスタ上の適切な非投票ノードのプライベートホスト名を変更します。
phys-schost# clsetup |
この手順は、クラスタ内の 1 つのノードからのみ実行する必要があります。
新しいプライベートホスト名を選択するときには、その名前がクラスタ内で一意であることを確認してください。
プライベートホスト名のオプションに対応する番号を入力し、Return キーを押します。
ゾーンプライベートホスト名を追加するためのオプションに対応する番号を入力し、Return キーを押します。
グローバルクラスタのプライベートホスト名の非投票ノードには、デフォルトは存在しません。ホスト名を入力する必要があります。
ゾーンプライベートホスト名を変更するためのオプションに対応する番号を入力します。
表示される質問に答えます。ここでは、プライベートホスト名を変更する非投票ノードの名前 (clusternode<nodeid> -priv) と新しいプライベートホスト名を入力してください。
ネームサービスキャッシュをフラッシュします。
クラスタの各ノードで次の手順を実行します。フラッシュすることによって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスしないようにします。
phys-schost# nscd -i hosts |
手順 1 で無効にしたデータサービスリソースとそのほかのアプリケーションをすべて有効にします。
グローバルクラスタ上の非投票ノードのプライベートホスト名を削除するには、次の手順を使用します。この手順は、グローバルクラスタ上のみで実行します。
clsetup(1CL) ユーティリティーを実行して、適切なゾーン上のプライベートホスト名を削除します。
ゾーンのプライベートホスト名用のオプションに対応する番号を入力します。
ゾーンプライベートホスト名を削除するためのオプションに対応する番号を入力します。
削除する非投票ノードのプライベートホスト名の名前を入力します。
サービスからグローバルクラスタノードを長時間はずす場合は、そのノードを保守状態にします。保守状態のノードは、サービス対象中に定足数確立の投票に参加しません。クラスタノードを保守状態にするには、clnode(1CL) evacuate および cluster(1CL) shutdown コマンドを使用して、ノードを停止しておく必要があります。
ノードを 1 つだけ停止する場合は、Solaris の shutdown コマンドを使用します。クラスタ全体を停止する場合にだけ、 cluster shutdown コマンドを使用します。
クラスタノードが停止されて保守状態になると、そのノードのポートで構成されるすべての定足数デバイスの、定足数投票数 (quorum vote count) が 1 つ減ります。このノードが保守状態から移動してオンラインに戻されると、ノードおよび定足数デバイスの投票数は 1 つ増えます。
クラスタノードを保守状態にするには、clquorum(1CL) disable コマンドを使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
保守状態にするグローバルクラスタノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
すべてのリソースグループとデバイスグループをノードから退避します。clnode evacuate コマンドは、すべての非投票ノードを含むすべてのリソースグループとデバイスグループを、指定ノードから次に優先されるノードに切り替えます。
phys-schost# clnode evacuate node |
退避させたノードを停止します。
phys-schost# shutdown -g0 -y-i 0 |
クラスタ内の別のノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になり、手順 3 で停止したノードを保守状態にします。
phys-schost# clquorum disable node |
保守モードにするノードの名前を指定します。
グローバルクラスタノードが保守状態にあることを確認します。
phys-schost# clquorum status node |
保守状態にしたノードの Status は offline で、その Present と Possible の定足数投票数は 0 (ゼロ) である必要があります。
次に、クラスタノードを保守状態にして、その結果を確認する例を示します。clnode status の出力では、phys-schost-1 のノードの Node votes は 0 (ゼロ) で、その状態は Offline です。Quorum Summary では、投票数も減っているはずです。構成によって異なりますが、Quorum Votes by Device の出力では、いくつかの定足数ディスクデバイスもオフラインである可能性があります。
[On the node to be put into maintenance state:] phys-schost-1# clnode evacuate phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# clquorum disable phys-schost-1 phys-schost-2# clquorum status phys-schost-1 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 0 0 Offline phys-schost-2 1 1 Online phys-schost-3 1 1 Online |
ノードをオンライン状態に戻す方法については、「ノードを保守状態から戻す」を参照してください。
次の手順を使用して、グローバルクラスタノードをオンラインに戻し、定足数投票数をリセットしてデフォルト設定に戻します。クラスタノードのデフォルトの投票数は 1 です。定足数デバイスのデフォルトの投票数は N-1 です。N は、投票数が 0 以外で、定足数デバイスが構成されているポートを持つノードの数を示します。
ノードが保守状態になると、そのノードの投票数は 1 つ減ります。また、このノードのポートに構成されているすべての定足数デバイスの投票数も (1 つ) 減ります。投票数がリセットされ、ノードが保守状態から戻されると、ノードの投票数と定足数デバイスの投票数の両方が 1 つ増えます。
保守状態にしたグローバルクラスタノードを保守状態から戻した場合は、必ずこの手順を実行してください。
globaldev または node オプションのどちらも指定しない場合、定足数投票数はクラスタ全体でリセットされます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタの、保守状態のノード以外の任意のノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
グローバルクラスタ構成内にあるノードの数に応じて、次の手順のいずれかを実行します。
保守状態から解除するノードに定足数デバイスがある場合は、保守状態にあるノード以外のノードからクラスタ定足数のカウントをリセットします。
保守状態ではないノードの定足数投票数をリセットするのは、そのノードを再起動する前である必要があります。そうしないと、定足数の確立を待機中にハングアップすることがあります。
phys-schost# clquorum reset |
定足数をリセットする変更フラグです。
保守状態を解除するノードを起動します。
定足数投票数を確認します。
phys-schost# clquorum status |
保守状態を解除したノードの状態は online であり、Present と Possible の定足数投票数は適切な値である必要があります。
次に、クラスタノードの定足数投票数をリセットして、その定足数デバイスをデフォルトに戻し、その結果を確認する例を示します。scstat -q の出力では、phys-schost-1 の Node votes は 1 であり、その状態は online です。Quorum Summary では、投票数も増えているはずです。
phys-schost-2# clquorum reset |
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot |
x86 ベースのシステム上で、次のコマンドを実行します。
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
phys-schost-1# clquorum status --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 4 6 6 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-2 1 1 Online phys-schost-3 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d3s2 1 1 Online /dev/did/rdsk/d17s2 0 1 Online /dev/did/rdsk/d31s2 1 1 Online ` |
このセクションでは、グローバルクラスタまたはゾーンクラスタにノードを追加する手順を説明します。新しいゾーンクラスタノードは、そのゾーンクラスタをホストするグローバルクラスタのノード上に作成できますが、それは、グローバルクラスタノードが、そのゾーンクラスタのノードをまだホストしていない場合に限られます。グローバルクラスタ上の既存の非投票ノードを、ゾーンクラスタノードに変換することはできません。
次の表に、ノードを既存のクラスタに追加するときに行う作業を示します。作業は、示されている順に実行してください。
表 8–2 作業マップ: 既存のグローバルクラスタまたはゾーンクラスタへのノードの追加
作業 |
参照先 |
---|---|
ホストアダプタのノードへの取り付けと、既存のクラスタインターコネクトが新しいノードをサポートできることの確認 |
『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 |
共有記憶装置の追加 |
『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 |
追加ノードのクラスタの準備 |
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「追加のグローバルクラスタノード用にクラスタを準備する」 |
clsetup を使用した、承認済みノードリストへのノードの追加 | |
新しいクラスタノードへのソフトウェアのインストールと構成 |
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の第 2 章「グローバルクラスタノードへのソフトウェアのインストール」 |
クラスタが Sun Cluster Geographic Edition のパートナーシップで構成されている場合、構成内のアクティブな参加メンバーとして新しいノードを構成する |
『Sun Cluster Geographic Edition のシステム管理』の「パートナーシップ内のクラスタに新しいノードを追加する方法」 |
既存のグローバルクラスタまたはゾーンクラスタに Solaris ホストまたは仮想マシンを追加する前に、プライベートクラスタインターコネクトとの物理的な接続が正しく動作しているかどうかも含め、必要なすべてのハードウェアがノードに正しくインストールされ構成されていることを確認してください。
ハードウェアのインストールについては、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 または各サーバーに付属するハードウェアマニュアルを参照してください。
この手順によって、マシンは自分自身をクラスタ内にインストールします。つまり、自分のノード名を当該クラスタの認証ノードリストに追加します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
現在のグローバルクラスタメンバーで、現在のクラスタメンバー上のスーパーユーザーになります。次の手順は、グローバルクラスタのノードから実行します。
「ノードの追加」 の作業マップに記載されている必要不可欠なハードウェアのインストール作業と構成作業をすべて正しく完了していることを確認します。
clsetup ユーティリティーを起動します。
phys-schost# clsetup |
メインメニューが表示されます。
ノードをゾーンクラスタに追加するために、clzonecluster ユーティリティーを使用します。ゾーンをゾーンクラスタに手動で追加する方法は、手順 9 を参照してください。
新規ノードメニューを表示するためのオプションに対応する番号を入力し、Return キーを押します。
承認済みリストを変更するためのオプションに対応する番号を入力し、Return キーを押します。自分自身を追加できるマシンの名前を指定します。
指示に従って、ノードの名前をクラスタに追加します。追加するノードの名前が問い合わせられます。
作業が正常に行われたことを確認します。
作業が正常に行われた場合、clsetup ユーティリティーは「コマンドが正常に完了しました」というメッセージを表示します。
新しいマシンがクラスタに追加されないようにするために、新しいマシンを追加する要求を無視するようクラスタに指示する、オプションに対応する番号を入力します。Return キーを押します。
clsetup のプロンプトに従います。このオプションを設定すると、クラスタは、自分自身をクラスタに追加しようとする新しいマシンからのパブリックネットワーク経由の要求をすべて無視します。
clsetup ユーティリティーを終了します。
ノードをゾーンクラスタに手動で追加するには、Solaris ホストおよび仮想ノード名を指定してください。また、各ノードでパブリックネットワーク通信に使用するネットワークリソースも指定してください。次の例では、ゾーン名は sczone で、bge0 は両方のマシンのパブリックネットワークアダプタです。
clzc:sczone>add node |
clzc:sczone:node>set physical-host=phys-cluster-1 |
clzc:sczone:node>set hostname=hostname1 |
clzc:sczone:node>add net |
clzc:sczone:node:net>set address=hostname1 |
clzc:sczone:node:net>set physical=bge0 |
clzc:sczone:node:net>end |
clzc:sczone:node>end |
clzc:sczone>add node |
clzc:sczone:node>set physical-host=phys-cluster-2 |
clzc:sczone:node>set hostname=hostname2 |
clzc:sczone:node>add net |
clzc:sczone:node:net>set address=hostname2 |
clzc:sczone:node:net>set physical=bge0 |
clzc:sczone:node:net>end |
clzc:sczone:node>end |
ノードを構成する手順の詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」を参照してください。
新しいクラスタノード上でソフトウェアをインストールして構成します。
scinstall または JumpStartTM ソフトウェアのいずれかを使用して、新しいノードのインストールと構成を完了します。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
次に、ノード phys-schost-3 を既存のクラスタの認証ノードリストに追加する例を示します。
[Become superuser and execute the clsetup utility.] phys-schost# clsetup [Select New nodes>Specify the name of a machine which may add itself.] [Answer the questions when prompted.] [Verify that the scconf command completed successfully.] claccess allow -h phys-schost-3 Command completed successfully. [Select Prevent any new machines from being added to the cluster.] [Quit the clsetup New Nodes Menu and Main Menu.] [Install the cluster software.] |
クラスタノードを追加する作業の一連の手順については、表 8–2、「作業マップ: クラスタノードの追加」を参照してください。
ノードを既存のリソースグループに追加する方法については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
ここでは、非投票ノード (単にゾーンと呼ばれる) をグローバルクラスタノード上に作成するための次の情報と手順を説明します。
非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。
ユーザーは大域ゾーン内で作業している必要があります。
Solaris 10 OS の場合、各ノードでサービス管理機能 (Service Management Facility、SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
新しいゾーンを構成、インストール、および起動します。
グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。
Solaris のマニュアルの手順に従ってください。
ゾーンが ready 状態であることを確認します。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンが論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。
phys-schost# zonecfg -z sczone zonecfg:sczone> add fs zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm zonecfg:sczone:fs> set type=lofs zonecfg:sczone:fs> end zonecfg:sczone> exit |
(省略可能) 共有 IP ゾーンの場合は、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。
次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
プロパティーを指定します。
ゾーンプライベートホスト名、またはホスト別名を指定します。
ノードの名前。
グローバルクラスタの非投票ノードの名前。
初期内部ゾーン構成を実行します。
『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。
ゾーンにログインします。
/etc/sysidcfg ファイルを使用します。
非投票ノードで、nsswitch.conf ファイルを変更します。
これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。
ゾーンにログインします。
phys-schost# zlogin -c zonename |
編集するため /etc/nsswitch.conf ファイルを開きます。
sczone# vi /etc/nsswitch.conf |
hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。
変更されたエントリは次のようになるはずです。
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。
ゾーンを終了します。
排他的 IP ゾーンを作成した場合は、ゾーン上の各 /etc/hostname.interface ファイルで IPMP グループを構成します。
ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「パブリックネットワーク」を参照してください。
ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。
非投票ノードを作成するグローバルクラスタノード上でスーパーユーザーになります。
システムから非投票ノードを削除します。
『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「システムから非大域ゾーンを削除する」の手順に従います。
ゾーンクラスタに関するほかの管理作業 (ゾーンパスの移動、アプリケーションを実行するためのゾーンクラスタの準備、ゾーンクラスタの複製など) を実行できます。これらのコマンドは、必ずグローバルクラスタの投票ノードから実行してください。
グローバルクラスタ内の投票ノードからのみ実行する Sun Clusterコマンドは、ゾーンクラスタには使用できません。各種ゾーンでのコマンドの有効な使用方法については、Sun Cluster の該当するマニュアルページを参照してください。
作業 |
参照先 |
---|---|
新規ゾーンパスへのゾーンパスの移動 |
clzonecluster move -f zonepath zoneclustername |
アプリケーション実行用のゾーンクラスタの準備 |
clzonecluster ready -n nodename zoneclustername |
ゾーンクラスタの複製 |
clzonecluster clone -Z source- zoneclustername [-m copymethod] zoneclustername clone サブコマンドを使用する前に、複製元のゾーンクラスタを停止してください。複製先のゾーンクラスタは、構成済みであることが必要です。 |
ここでは、グローバルクラスタまたはゾーンクラスタ上のノードを削除する方法について説明します。グローバルクラスタから特定のゾーンクラスタを削除することもできます。次の表に、ノードを既存のクラスタから削除するときに行う作業を示します。作業は、示されている順に実行してください。
RAC 構成の場合、この手順のみを使用してノードを削除すると、再起動中のノードでパニックが発生する可能性があります。RAC 構成からノードを削除する方法については、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS』の「How to Remove Sun Cluster Support for Oracle RAC From Selected Nodes」を参照してください。このプロセスが終了したら、次の適切な手順に従ってください。
作業 |
参照先 |
---|---|
削除するノードからすべてのリソースグループとデバイスグループを移動 |
clnode evacuate node |
許可されたホストをチェックして、ノードを削除できることを確認 ノードを削除できない場合に、クラスタ構成へのアクセス権をノードに付与 |
claccess show node claccess allow -h node-to-remove |
すべてのデバイスグループからノードを削除 |
「デバイスグループからノードを削除する (Solaris Volume Manager)」
|
削除するノードに接続されているすべての定足数デバイスを削除 |
2 ノードクラスタのノードを削除する場合、この手順は省略可能です。 次の手順では、ストレージデバイスを削除する前に定足数デバイスを削除する必要がありますが、定足数デバイスはその直後に追加し直すことができます。 |
削除するノードを非クラスタモードにする | |
ゾーンクラスタからノードを削除 | |
クラスタソフトウェア構成からノードを削除 | |
(省略可能) Sun Cluster ソフトウェアをクラスタノードからアンインストール | |
ゾーンクラスタ全体の削除 |
ゾーンクラスタのノードを削除するには、ノードを停止し、アンインストールしてから、構成から削除します。あとでゾーンクラスタにノードを追加しなおす場合は、「ノードの追加」の説明に従ってください。この手順のほとんどはグローバルクラスタノードから実行されます。
グローバルクラスタのノードのスーパーユーザーになります。
ノードとそのゾーンクラスタを指定して、削除するゾーンクラスタノードを停止します。
phys-schost# clzonecluster halt -n node zoneclustername |
ゾーンクラスタ内で clnode evacuate コマンドと shutdown コマンドを使用することもできます。
ゾーンクラスタノードをアンインストールします。
phys-schost# clzonecluster uninstall -n node zoneclustername |
ゾーンクラスタノードを構成から削除します。
次のコマンドを使用します。
phys-schost# clzonecluster configure zoneclustername |
clzc:sczone> remove node physical-host=zoneclusternodename |
ノードがゾーンクラスタから削除されたことを確認します。
phys-schost# clzonecluster status |
グローバルクラスタからノードを削除するは、次の手順を実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
この手順を実行する前に、ノードをすべてのリソースグループ、デバイスグループ、および定足数デバイスの構成から削除していること、および、このノードを保守状態にしていることを確認します。
削除するノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
削除するグローバルクラスタノードを非クラスタモードで起動します。ゾーンクラスタノードの場合は、この手順を実行する前に、「ゾーンクラスタからノードを削除する」の手順を実行します。
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot -x |
x86 ベースのシステム上で、次のコマンドを実行します。
shutdown -g -y -i0 Press any key to continue |
GRUB メニューで矢印キーを使用して該当する Solaris エントリを選択し、e と入力してコマンドを編集します。
GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
ブートパラメータの画面で、矢印キーを使用してカーネルエントリを選択し、e を入力してエントリを編集します。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
コマンドに -x を追加して、システムを非クラスタモードで起動するように指定します。
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Enter キーを押して変更を受け入れ、ブートパラメータの画面に戻ります。
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
b と入力して、ノードを非クラスタモードで起動します。
カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。クラスタモードではなく、非クラスタモードで起動するには、これらの手順を再度実行して、カーネル起動パラメータコマンドに -x オプションを追加します。
削除するノードが使用できない場合や、起動できなくなっている場合は、アクティブな任意のクラスタノードで clnode clear -F <node-to-be-removed> コマンドを実行します。clnode status <nodename> を実行して、ノードが削除されていることを確認します。
削除するノードで、ノードをクラスタから削除します。
phys-schost# clnode remove -F |
clnode remove コマンドが失敗し、無効なノード参照が存在したままになっている場合は、アクティブなノードで clnode clear -F nodename を実行します。
クラスタ内の最後のノードを削除する場合は、そのノードがクラスタモードモードでないこと、およびクラスタ内にアクティブなノードがないことが必要です。
別のクラスタノードから、ノードの削除を確認します。
phys-schost# clnode status nodename |
ノードの削除を完了します。
削除するノードから Sun Cluster ソフトウェアをアンインストールする場合は、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」 に進んでください。
削除するノードから Sun Cluster ソフトウェアをアンインストールしない場合は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』 で説明されているように、ハードウェア接続を削除することにより、クラスタからノードを物理的に削除できます。
次に、ノード phys-schost-2 をクラスタから削除する例を示します。clnode remove コマンドは、クラスタから削除するノード (phys-schost-2) から非クラスタモードで実行されます。
[Remove the node from the cluster:] phys-schost-2# clnode remove phys-schost-1# clnode clear -F phys-schost-2 [Verify node removal:] phys-schost-1# clnode status -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
削除するノードから Sun Cluster ソフトウェアをアンインストールする方法については、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」を参照してください。
ハードウェア手順については、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。
クラスタノードを削除する作業の概要については、表 8–4 を参照してください。
ノードを既存のクラスタに追加する方法については、「ノードを認証ノードリストに追加する」を参照してください。
3 ノードまたは 4 ノード接続のクラスタでストレージアレイを単一クラスタノードから取り外すには、次の手順を使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
取り外す予定のストレージアレイに関連付けられているすべてのデータベーステーブル、データサービス、ボリュームのバックアップを作成します。
切断する予定のノードで動作しているリソースグループとデバイスグループを判別します。
phys-schost# clresourcegroup status phys-schost# cldevicegroup status |
必要であれば、切断する予定のノードからすべてのリソースグループとデバイスグループを移動します。
Oracle RAC ソフトウェアをクラスタで実行している場合、グループをノードから移動する前に、動作している Oracle RAC データベースのインスタンスを停止します。手順については、『Oracle Database Administration Guide』を参照してください。
phys-schost# clnode evacuate node |
clnode evacuate コマンドは、すべてのデバイスグループを、指定ノードから次に優先されるノードに切り替えます。またこのコマンドは、指定ノード上の投票ノードまたは非投票ノードから、次に優先される投票ノードまたは非投票ノードへ、すべてのリソースグループを切り替えます。
デバイスグループを保守状態にします。
Veritas 共有ディスクグループへの入出力活動を休止させる手順については、VxVM のマニュアルを参照してください。
デバイスグループを保守状態にする手順については、「ノードを保守状態にする」を参照してください。
デバイスグループからノードを削除します。
VxVM または raw ディスクを使用している場合は、cldevicegroup(1CL) コマンドを使用して、デバイスグループを削除します。
Solstice DiskSuite を使用している場合は、metaset コマンドを使用して、デバイスグループを削除します。
HAStoragePlus リソースが含まれる各リソースグループで、リソースグループのノードリストからノードを削除します。
phys-schost# clresourcegroup remove-node -z zone -n node + | resourcegroup |
ノードの名前。
リソースグループをマスターできる非投票ノードの名前。リソースグループを作成した際に非投票ノードを指定した場合にのみ、zone を指定します。
リソースグループのノードリストを変更する方法の詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
clresourcegroup を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティー名には大文字と小文字の区別があります。
削除する予定のストレージアレイがノードに接続されている最後のストレージアレイである場合、当該ストレージアレイに接続されているハブまたはスイッチとノードの間にある光ケーブルを取り外します (そうでない場合、この手順は省略します)。
切断するノードからホストアダプタを削除する場合、ノードの電源を切ります。切断するノードからホストアダプタを削除する場合は、手順 11 に進みます。
ノードからホストアダプタを削除します。
ホストアダプタの削除手順については、ノード用ドキュメントを参照してください。
起動が行われないようにして、ノードに電源を入れます。
Oracle RAC ソフトウェアがインストールされている場合、切断する予定のノードからそのパッケージを削除します。
phys-schost# pkgrm SUNWscucm |
切断したノードから Oracle RAC ソフトウェアを削除しない場合、そのノードをクラスタに導入し直すときにノードでパニックが発生し、データの可用性が失われる可能性があります。
クラスタモードでノードを起動します。
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot |
x86 ベースのシステム上で、次のコマンドを実行します。
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
ノードの /devices と /dev エントリを更新して、デバイスの名前空間を更新します。
phys-schost# devfsadm -C cldevice refresh |
デバイスグループをオンラインに戻します。
Veritas 共有ディスクグループをオンラインにする手順については、Veritas Volume Manager のマニュアルを参照してください。
デバイスグループをオンラインにする方法については、「ノードを保守状態から戻す」を参照してください。
グローバルクラスタ上に構成されているゾーンクラスタは、特定の 1 つのゾーンクラスタを削除することも、ワイルドカードを使用してすべてのゾーンクラスタを削除することもできます。構成されていないゾーンクラスタは、削除できません。
グローバルクラスタのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になりますグローバルクラスタのノードから、次の手順のステップをすべて実行します。
ゾーンクラスタからすべてのリソースグループとそのリソースを削除します。
phys-schost# clresourcegroup delete -F -Z zoneclustername + |
この手順は、グローバルクラスタノードから実行されます。この手順をゾーンクラスタのノードから実行するには、ゾーンクラスタノードにログインし、コマンドの「-Z zonecluster」を省略します。
ゾーンクラスタを停止します。
phys-schost# clzonecluster halt zoneclustername |
ゾーンクラスタをアンインストールします。
phys-schost# clzonecluster uninstall zoneclustername |
ゾーンクラスタを構成解除します。
phys-schost# clzonecluster delete zoneclustername |
phys-schost# clresourcegroup delete -F -Z sczone + |
phys-schost# clzonecluster halt sczone |
phys-schost# clzonecluster uninstall sczone |
phys-schost# clzonecluster delete sczone |
この手順は、ゾーンクラスタからファイルシステムを削除する場合に実行します。ゾーンクラスタでサポートされるファイルシステムには、UFS、Vxfs、スタンドアロン QFS、共有 QFS、ZFS (データセットとしてエクスポートされたもの)、およびループバックファイルシステムがあります。ファイルシステムをゾーンクラスタに追加する手順は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタにファイルシステムを追加する」を参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
ゾーンクラスタをホストするグローバルクラスタのノードで、スーパーユーザーになります。グローバルクラスタのノードから、このプロシージャの一部のステップが実行されます。他のステップは、ゾーンクラスタのノードから実行されます。
削除するファイルシステムに関連するリソースを削除します。
削除するゾーンクラスタのファイルシステム用に構成されている Sun Cluster のリソースタイプ (HAStoragePlus、SUNW.ScalMountPoint など) を特定し、削除します。
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources |
削除するファイルシステム用のグローバルクラスタ内に構成されている SUNW.qfs タイプの Sun Cluster リソースがあれば、そのリソースを特定し、削除します。
phys-schost# clresource delete -F fs_global_resouces |
-F オプションを指定すると、前もって無効にしていないリソースも含め、指定したリソースがすべて強制的に削除されるため、このオプションは注意して使用してください。すべての指定リソースが、ほかのリソースのリソース関係設定から削除されるため、クラスタ内のサービスが失われることがあります。削除されていない依存リソースは、無効な状態やエラー状態になる可能性があります。詳細は、clresource(1CL) のマニュアルページを参照してください。
削除したリソースのリソースグループがあとで空になると、そのリソースグループを安全に削除できます。
ファイルシステムのマウントポイントディレクトリのパスを調べます。たとえば、次のように使用します。
phys-schost# clzonecluster configure zoneclustername |
ファイルシステムをゾーンクラスタの構成から削除します。
phys-schost# clzonecluster configure zoneclustername |
clzc:zoneclustername> remove fs dir=filesystemdirectory |
clzc:zoneclustername> commit |
ファイルシステムのマウントポイントは、dir= で指定します。
ファイルシステムが削除されたことを確認します。
phys-schost# clzonecluster show -v zoneclustername |
この例は、sczone というゾーンクラスタ内に構成された、マウントポイントディレクトリ ( /local/ufs-1) のあるファイルシステムを削除する方法を示しています。リソースは hasp-rs で、そのタイプは HAStoragePlus です。
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczone |
この例は、HAzpool という ZFS プール内の ZFS ファイルシステムを削除する方法を示しています。このファイルシステムは、sczone ゾーンクラスタ内に構成されており、リソースは hasp-rs で、そのタイプは SUNW.HAStoragePlus です。
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone |
この例は、マウントポイントディレクトリが /db_qfs/Data の構成済み共有ファイルシステムを削除する方法を示しています。このファイルシステムには、次の特徴があります。
この共有 QFS ファイルシステムは、タイプが SUNW.qfs の Data-rs リソースで構成されている。このファイルシステムは、QFSFileSystem 拡張プロパティーが /<sczone_root_path>/db_qfs/Data に設定されているゾーンクラスタのグローバルクラスタ内に構成されている。
この共有 QFS ファイルシステムは、ゾーンクラスタ内に構成された、タイプが SUNW.ScalMountPoint の scal-Data-rs によって監視されている。
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /db_qfs/Data special: Data type: samfs ... phys-schost# clresource delete -F -Z sczone scal-Data-rs phys-schost# clresource delete -F Data-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/db_qfs/Data clzc:sczone> commit phys-schost# clzonecluster show -v sczone |
ストレージデバイス (SVM ディスクセット、DID デバイスなど) をゾーンクラスタから削除することが可能です。この手順は、ゾーンクラスタからストレージデバイスを削除する場合に実行します。
ゾーンクラスタをホストするグローバルクラスタのノードで、スーパーユーザーになります。グローバルクラスタのノードから、このプロシージャーの一部のステップが実行されます。ほかのステップは、ゾーンクラスタのノードから実行することが可能です。
削除するデバイスに関連するリソースを削除します。削除するゾーンクラスタのデバイス用に構成されている Sun Cluster のリソースタイプ (SUNW.HAStoragePlus、SUNW.ScalDeviceGroup など) を特定し、削除します。
phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources |
削除するデバイスに対して一致するエントリを調べます。
phys-schost# clzonecluster show -v zoneclustername ... Resource Name: device match: <device_match> ... |
デバイスをゾーンクラスタの構成から削除します。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> remove device match=<devices_match> clzc:zoneclustername> commit clzc:zoneclustername> end |
ゾーンクラスタを再起動します。
phys-schost# clzonecluster reboot zoneclustername |
デバイスの削除を確認します。
phys-schost# clzonecluster show -v zoneclustername |
この例は、sczone というゾーンクラスタに構成された apachedg という SVM ディスクセットを削除する方法を示しています。apachedg ディスクセットのセット番号は 3 です。このデバイスは、クラスタに構成された zc_rs のリソースにより使用されます。
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/md/apachedg/*dsk/* Resource Name: device match: /dev/md/shared/3/*dsk/* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# ls -l /dev/md/apachedg lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3 phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/md/apachedg/*dsk/* clzc:sczone> remove device match=/dev/md/shared/3/*dsk/* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone |
この例は、DID デバイス d10 および d11 を削除する方法を示しています。このデバイスは、sczone というゾーンクラスタに構成されています。このデバイスは、クラスタに構成された zc_rs のリソースにより使用されます。
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/did/*dsk/d10* Resource Name: device match: /dev/did/*dsk/d11* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/did/*dsk/d10* clzc:sczone> remove device match=/dev/did/*dsk/d11* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone |
完全に確立されたクラスタ構成からグローバルクラスタノードを切り離す前に、そのノードから Sun Cluster ソフトウェアをアンインストールするには、この手順を使用します。この手順では、クラスタに存在する最後のノードからソフトウェアをアンインストールできます。
クラスタにまだ結合されていない、あるいはまだインストールモードであるノードから Sun Cluster ソフトウェアをアンインストールする場合、この手順を使用してはいけません。その代わりに、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』 の「Sun Cluster ソフトウェアをアンインストールしてインストール問題を解決する」に進みます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
クラスタノードを削除するための前提作業 (作業マップを参照) がすべて完了していることを確認します。
表 8–4 を参照してください。
この手順を続ける前に、clnode remove を使用してクラスタ構成からノードを削除します。
アンインストールするグローバルクラスタノード以外の、アクティブなグローバルクラスタメンバー上で、スーパーユーザーになります。この手順は、グローバルクラスタノードから実行します。
アクティブなクラスタメンバーから、アンインストールを行うノードをクラスタ のノード認証リストに追加します。
phys-schost# claccess allow -h hostname |
ノードの認証リストに追加するノードの名前を指定します。
または、clsetup(1CL) ユーティリティーを使用できます。手順については、「ノードを認証ノードリストに追加する」を参照してください。
アンインストールするノードでスーパーユーザーになります。
ゾーンクラスタがある場合は、アンインストールします。
phys-schost# clzonecluster uninstall -F zoneclustername |
具体的な手順は、「ゾーンクラスタを削除する」を参照してください。
グローバルクラスタノードを非クラスタモードで再起動します。
SPARC ベースのシステム上で、次のコマンドを実行します。
# shutdown -g0 -y -i0ok boot -x |
x86 ベースのシステム上で、次のコマンドを実行します。
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
/etc/vfstab ファイルから、グローバルにマウントされるすべてのファイルシステムエントリを削除します。ただし、/global/.devices グローバルマウントを除きます。
このノード上で Sun Cluster ソフトウェアを再インストールする場合は、Sun Java Enterprise System (Java ES) 製品のレジストリから Sun Cluster のエントリを削除します。
Java ES 製品のレジストリに Sun Cluster ソフトウェアがインストールされたという記録が含まれていると、Java ES のインストーラは Sun Cluster のコンポーネントを灰色で表示し、再インストールを許可しません。
Java ES のアンインストーラを起動します。
次のコマンドを実行します。ver は Sun Cluster ソフトウェアのインストール元である Java ES ディストリビューションのバージョンです。
# /var/sadm/prod/SUNWentsysver/uninstall |
プロンプトに従い、アンインストールする Sun Cluster を選択します。
uninstall コマンドの使い方の詳細は、『Sun Java Enterprise System 5 インストールガイド (UNIX 版)』の第 8 章「アンインストール」を参照してください。
このクラスタ上で Sun Cluster ソフトウェアを再インストールしない場合は、ほかのクラスタデバイスからトランスポートケーブルとトランスポートスイッチを切断します (存在する場合)。
クラスタノードの削除手順のいずれかを実行中に発生したエラーメッセージを修正するには、次の手順を実行します。
グローバルクラスタへのノードの再結合を試みます。この手順は、グローバルクラスタ上のみで実行します。
phys-schost# boot |
ノードがクラスタに正常に再結合されているかどうかを確認します。
再結合されていない場合は、手順 3 に進みます。
再結合されている場合は、次の各手順を行なってノードをデバイスグループから削除します。
ノードが正常にクラスタに再結合された場合は、残っているデバイスグループからノードを削除します。
「すべてのデバイスグループからノードを削除する」 の作業を行います。
すべてのデバイスグループからノードを削除したあと、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」 に戻り、その手順を繰り返します。
ノードがクラスタに再結合されなかった場合は、ノードの /etc/cluster/ccr ファイルを他の名前に変更します (たとえば、ccr.old)。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に戻り、その手順を繰り返します。
ここでは、scinstall -r コマンドを実行したときに出力される可能性があるエラーメッセージとその対処方法について説明します。
次のエラーメッセージは、削除したグローバルクラスタノードに、vfstab ファイルから参照されているクラスタファイルシステムがまだあることを示しています。
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall: global-mount1 is still configured as a global mount. scinstall: global-mount1 is still configured as a global mount. scinstall: /global/dg1 is still configured as a global mount. scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
このエラーを修正するためには、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に戻って、その手順を繰り返す必要があります。手順 7 コマンドを再度実行する前に、このStep 7が正しく行われているか確認してください。
次のエラーメッセージは、削除したノードが依然としてデバイスグループにリストされていることを示しています。
Verifying that no device services still reference this node ... failed scinstall: This node is still configured to host device service " service". scinstall: This node is still configured to host device service " service2". scinstall: This node is still configured to host device service " service3". scinstall: This node is still configured to host device service " dg1". scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
この節では、簡易ネットワーク管理プロトコル (Simple Network Management Protocol、SNMP) イベント管理情報ベース (Management Information Base、MIB) を作成、設定、および管理する方法を説明します。またこのセクションでは、Sun Cluster SNMP イベント MIB を有効化、無効化、および変更する方法も説明します。
Sun Cluster ソフトウェアでは現在、イベント MIB という MIB を 1 つサポートしています。SNMP マネージャーソフトウェアがクラスタイベントをリアルタイムでトラップします。有効な場合、SNMP マネージャー はトラップ通知を clsnmphost コマンドによって定義されているすべてのホストに自動的に送信します。MIB には、最新の 50 イベントの読み取り専用のテーブルが保持されます。クラスタは多数の通知を生成するので、重要度が warning 以上のイベントだけがトラップ通知として送信されます。この情報は、リブートが実行されると消失します。
SNMP イベント MIB は、sun-cluster-event-mib.mib ファイルで定義されており、/usr/cluster/lib/mib ディレクトリにあります。この定義を使用して、SNMP トラップ情報を解釈できます。
イベント SNMP モジュールのデフォルトのポート番号は 11161 で、SNMP トラップのデフォルトのポートは 11162 です。これらのポート番号は、共通エージェントコンテナのプロパティーファイル (/etc/cacao/instances/default/private/cacao.properties) を変更することによって変更できます。
Sun Cluster SNMP イベント MIB の作成、設定、および管理には次の作業が含まれます。
表 8–5 作業マップ: Sun Cluster SNMP イベント MIB の作成、設定、および管理
作業 |
参照先 |
---|---|
SNMP イベント MIB の有効化 | |
SNMP イベント MIB の無効化 | |
SNMP イベント MIB の変更 | |
MIB のトラップ通知を受信するホストリストへの SNMP ホストの追加 | |
SNMP ホストの削除 | |
SNMP ユーザーの追加 | |
SNMP ユーザーの削除 |
この手順では、SNMP イベント MIB を有効化する方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
SNMP イベント MIB を有効にします。
phys-schost-1# clsnmpmib enable [-n node] MIB |
有効にするイベント MIB がある node を指定します。ノード ID またはノード名を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
有効にする MIB の名前を指定します。この場合、MIB 名は event にしてください。
この手順では、SNMP イベント MIB を無効化にする方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
SNMP イベント MIB を無効にします。
phys-schost-1# clsnmpmib disable -n node MIB |
無効にするイベント MIB がある node を指定します。ノード ID またはノード名を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
無効にする MIB の種類を指定します。この場合、event を指定してください。
この手順では、SNMP イベント MIB のプロトコルを変更する方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
SNMP イベント MIB のプロトコルを変更します。
phys-schost-1# clsnmpmib set -n node -p version=value MIB |
変更するイベント MIB がある node を指定します。ノード ID またはノード名を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
MIB で使用する SNMP プロトコルのバージョンを指定します。value は次のように指定します。
version=SNMPv2
version=snmpv2
version=2
version=SNMPv3
version=snmpv3
version=3
サブコマンドが適用される単数または複数の MIB の名前を指定します。この場合、event を指定してください。このオペランドを指定しない場合は、デフォルトのプラス記号 (+) がサブコマンドで使用されます (すべての MIB を意味します)。MIB オペランドを使用する場合は、ほかのコマンドラインオプションの後ろに、スペース区切りリストで MIB を指定します。
この手順では、ノード上の SNMP ホストを、MIB のトラップ通知を受信するホストのリストに追加する方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
ホストを、別のノード上のコミュニティーの SNMP ホストリストに追加します。
phys-schost-1# clsnmphost add -c SNMPcommunity [-n node] host |
ホスト名とともに使用される SNMP コミュニティー名を指定します。
ホストを public 以外のコミュニティーに追加する場合は、コミュニティー名 SNMPcommunity を指定してください。add サブコマンドを -c オプションなしで使用すると、このサブコマンドは public をデフォルトのコミュニティー名として使用します。
指定されたコミュニティー名が存在しない場合、このコマンドはそのコミュニティーを作成します。
クラスタ内の SNMP MIB に対するアクセス権を付与されている SNMP ホストの node の名前を指定します。ノード名またはノード ID を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
クラスタ内の SNMP MIB に対するアクセス権が付与されたホストの名前、IP アドレス、または IPv6 アドレスを指定します。
この手順では、ノード上の SNMP ホストを、MIB のトラップ通知を受信するホストのリストから削除する方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
指定のノード上のコミュニティーの SNMP ホストリストからホストを削除します。
phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host |
指定のノードから指定の SNMP ホストを削除します。
SNMP ホストを削除する SNMP コミュニティーの名前を指定します。
構成から削除される SNMP ホストの node の名前を指定します。ノード名またはノード ID を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
構成から削除されるホストの名前、IP アドレス、または IPv6 アドレスを指定します。
指定の SNMP コミュニティー内のすべてのホストを削除するには、-c オプション付きの host に正符号 (+) を使用します。すべてのホストを削除するには、host に正符号 + を使用します。
この手順では、ノード上の SNMP ユーザー構成に SNMP ユーザーを追加する方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
SNMP ユーザーを追加します。
phys-schost-1# clsnmpuser create -n node -a authentication \ -f password user |
SNMP ユーザーが追加されるノードを指定します。ノード ID またはノード名を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
ユーザーの承認に使用する認証プロトコルを指定します。認証プロトコルの値は SHA または MD5 です。
SNMP ユーザーパスワードを含むファイルを指定します。新しいユーザーを作成する際にこのオプションを指定しないと、コマンドはパスワードを求めるプロンプトを表示します。このオプションは、add サブコマンドとだけ有効です。
ユーザーパスワードは、次の形式で、独立した行の上に指定します。
user:password
パスワードには次に示す文字または空白文字を含めることはできません。
; (セミコロン)
: (コロン)
\ (バックスラッシュ)
\n (復帰改行)
追加する SNMP ユーザーの名前を指定します。
この手順では、ノード上の SNMP ユーザー構成から SNMP ユーザーを削除する方法を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザーになるか、RBAC 承認 solaris.cluster.modify を提供する役割になります。
SNMP ユーザーを削除します。
phys-schost-1# clsnmpuser delete -n node user |
SNMP ユーザーが削除されるノードを指定します。ノード ID またはノード名を指定できます。このオプションを指定しないと、デフォルトで現在のノードが使用されます。
削除する SNMP ユーザーの名前を指定します。
このセクションでは、テスト用に使用できる障害追跡手順について説明します。
この手順を使用して、テスト用にグローバルクラスタ外でアプリケーションを実行します。
Solaris Volume Manager メタセットで定足数デバイスが使用されているかどうかを確認し、定足数デバイスが SCSI2 または SCSI3 予約を使用するかどうかを確認します。
phys-schost# clquorum show |
定足数デバイスが Solaris Volume Manager メタセットにある場合は、あとで非クラスタモードにするメタセットには含まれない、新しい定足数デバイスを追加します。
phys-schost# clquorum add did |
古い定足数デバイスを削除します。
phys-schost# clqorum remove did |
定足数デバイスが SCSI2 予約を使用する場合は、古い定足数からの SCSI2 予約をスクラブして、SCSI2 予約が残らないことを確認します。
phys-schost# /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2 phys-schost# /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2 |
非クラスタモードで起動するグローバルクラスタノードを退避します。
phys-schost# clresourcegroup evacuate -n targetnode |
HAStorage または HAStoragePlus リソースを含み、あとで非クラスタモードにするメタセットの影響を受けるデバイスまたはファイルシステムを含む、1 つまたは複数のリソースグループをオフラインにします。
phys-schost# clresourcegroup offline resourcegroupname |
オフラインにしたリソースグループ内のすべてのリソースを無効にします。
phys-schost# clresource disable resourcename |
リソースグループを非管理状態に切り替えます。
phys-schost# clresourcegroup unmanage resourcegroupname |
対応する 1 つまたは複数のデバイスグループをオフラインにします。
phys-schost# cldevicegroup offline devicegroupname |
1 つまたは複数のデバイスグループを無効にします。
phys-schost# cldevicegroup disable devicegroupname |
パッシブノードを非クラスタモードで起動します。
phys-schost# reboot -x |
続ける前にパッシブノードで起動プロセスが完了していることを確認します。
Solaris 9
ログインプロンプトは起動プロセスが完了したあとにのみ表示されるため、操作は不要です。
Solaris 10
phys-schost# svcs -x |
メタセット内のディスクに SCSI3 予約があるかどうかを調べます。メタセット内のすべてのディスクで次のコマンドを実行します。
phys-schost# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2 |
ディスク上に SCSI3 予約がある場合は、それらをスクラブします。
phys-schost# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2 |
メタセットを退避したノードに移します。
phys-schost# metaset -s name -C take -f |
メタセット上で定義されたデバイスを含む 1 つまたは複数のファイルシステムをマウントします。
phys-schost# mount device mountpoint |
アプリケーションを起動して、必要なテストを実行します。テストが終了したら、アプリケーションを停止します。
ノードを再起動し、起動プロセスが終了するまで待ちます。
phys-schost# reboot |
1 つまたは複数のデバイスグループをオンラインにします。
phys-schost# cldevicegroup online -e devicegroupname |
1 つまたは複数のリソースグループを起動します。
phys-schost# clresourcegroup online -eM resourcegroupname |