この章では、グローバルクラスタとゾーンクラスタの管理に関する次の情報と、Sun™ Cluster 管理ツールの使用手順について説明します。
Solaris™ 10 OS の場合、グローバルクラスタは、1 つ以上のグローバルクラスタ投票ノードのみで構成されますが、オプションで 0 個以上のグローバルクラスタ非投票ノードを含むこともできます。 グローバルクラスタには、オプションで、Solaris 8 OS、Solaris 9 OS、LINUX OS、またはネイティブブランドの非大域ゾーン (ノードではなく高可用性コンテナ) をリソースとして含めることもできます。ゾーンクラスタには、グローバルクラスタが必須です。ゾーンクラスタの概要については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
Solaris 10 OS の場合、ゾーンクラスタは、クラスタブランドの 1 つ以上の投票ノードのみで構成されます。 ゾーンクラスタは、グローバルクラスタに依存しており、したがって、グローバルクラスタを必要とします。グローバルクラスタはゾーンクラスタを含みません。ゾーンクラスタは、グローバルクラスタなしでは構成できません。ゾーンクラスタが同じマシン上に含むことができるのは、多い場合でも 1 つのゾーンクラスタのみです。ゾーンクラスタノードは、同じマシン上のグローバルクラスタ投票ノードが動作している場合にのみ動作します。あるマシンのグローバルクラスタ投票ノードで障害が発生すると、同じマシン上のすべてのゾーンクラスタノードも動作しなくなります。
Sun Cluster の高可用性環境によって、重要なアプリケーションの可用性がエンドユーザーに対して保証されます。システム管理者の業務は、Sun Cluster 構成の安定した動作を保証することです。
管理作業を始める前に、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』と『Sun Cluster の概念 (Solaris OS 版)』に記載されている計画情報をよく理解しておいてください。ゾーンクラスタの作成手順については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」を参照してください。Sun Cluster の管理は、次の作業ごとに各マニュアルにまとめられています。
グローバルクラスタまたはゾーンクラスタを定期的に (または毎日) 管理および維持するための標準的な作業。これらの作業は、このマニュアルで説明されています。
インストール、構成、属性の変更などのデータサービス作業。これらの作業は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』で説明されています。
記憶装置やネットワークハードウェアの追加や保守などのサービス作業。これらの作業は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』で説明されています。
一般に、Sun Cluster の管理作業はクラスタの稼働中に実行できます。クラスタからノードを取り外す必要がある場合、あるいはノードを停止する必要がある場合でも、残りのノードがクラスタを稼働している間に作業を行うことができます。Solaris 10 では、明記していないかぎり、Sun Cluster の管理作業はグローバルクラスタの投票ノードで行うべきです。クラスタ全体を停止する必要がある手順については、ダウンタイムのスケジュールを通常の業務時間外に設定してシステムへの影響を最小限に抑えてください。クラスタまたはクラスタノードを停止する予定があるときは、あらかじめユーザーに通知しておいてください。
Sun Cluster の 2 つの管理コマンド (cluster および clnode) は、ゾーンクラスタでも実行できます。ただし、このコマンドの対象は、コマンドが発行されたゾーンクラスタに限定されます。たとえば、グローバルクラスタの投票ノードで cluster コマンドを使用すると、投票グローバルクラスタおよびすべてのゾーンクラスタに関するすべての情報が得られます。cluster コマンドをゾーンクラスタで使用すると、そのゾーンクラスタのみの情報が得られます。
clzonecluster コマンドを投票ノードで使用すると、グローバルクラスタ内のすべてのゾーンクラスタが対象になります。ゾーンクラスタコマンドはゾーンクラスタ上のすべてのノードを対象とします (コマンド発行時に停止していたノードも対象になります)。
ゾーンクラスタは、リソースグループマネージャー (Resource Group Manager、RGM) の制御下にあるリソースの委任管理をサポートしています。そのため、ゾーンクラスタの管理者は、クラスタ境界にまたがるゾーンクラスタ依存関係を表示できます (ただし、変更はできません)。クラスタ境界にまたがるゾーンクラスタ依存関係を作成し、変更し、削除できるのは、投票ノード内の管理者のみです。
次の表に、ゾーンクラスタで実行する主な管理作業を示します。
ゾーンクラスタの作成 – clzonecluster configure コマンドを使用して、新しいゾーンクラスタを作成します。手順については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」を参照してください。
ゾーンクラスタの起動と再起動 –第 3 章クラスタの停止と起動を参照してください。
ゾーンクラスタへのノードの追加 – 「ノードの追加」を参照してください。
ゾーンクラスタからのノードの削除 – 「ゾーンクラスタからノードを削除する」を参照してください。
ゾーンクラスタの構成の表示 – 「クラスタ構成を表示する」を参照してください。
ゾーンクラスタの構成の検証 – 「基本的なクラスタ構成を検証する」を参照してください。
ゾーンクラスタの停止 – 第 3 章クラスタの停止と起動を参照してください。
Solaris 10 Service Management Facility (SMF) 管理インタフェースを使用して、次の Sun Cluster サービスを有効または無効にしないでください。
表 1–1 Sun Cluster サービス|
Sun Cluster サービス |
FMRI |
|---|---|
|
pnm |
svc:/system/cluster/pnm:default |
|
cl_event |
svc:/system/cluster/cl_event:default |
|
cl_eventlog |
svc:/system/cluster/cl_eventlog:default |
|
rpc_pmf |
svc:/system/cluster/rpc_pmf:default |
|
rpc_fed |
svc:/system/cluster/rpc_fed:default |
|
rgm |
svc:/system/cluster/rgm:default |
|
scdpm |
svc:/system/cluster/scdpm:default |
|
cl_ccra |
svc:/system/cluster/cl_ccra:default |
|
scsymon_srv |
svc:/system/cluster/scsymon_srv:default |
|
spm |
svc:/system/cluster/spm:default |
|
cl_svc_cluster_milestone |
svc:/system/cluster/cl_svc_cluster_milestone:default |
|
cl_svc_enable |
svc:/system/cluster/cl_svc_enable:default |
|
network-multipathing |
svc:/system/cluster/network-multipathing |
Sun Cluster 構成で管理作業を行うときは、グラフィカルユーザーインタフェース (Graphical User Interface、GUI) またはコマンド行を使用できます。次のセクションでは、GUI とコマンド行の理ツールの概要を示します。
Sun Cluster ソフトウェアは、GUI ツールをサポートしています。これらのツールを使えば、クラスタに対してさまざまな管理作業を行うことができます。GUI ツールの 1 つに Sun Cluster Manager があります。また、SPARC ベースのシステムで Sun Cluster ソフトウェアを使用している場合は、Sun Management Center があります。Sun Cluster Manager と Sun Management Center の詳細と構成手順については、第 12 章グラフィカルユーザーインタフェースによる Sun Cluster の管理を参照してください。 Sun Cluster Manager に固有の使い方については、GUI のオンラインヘルプを参照してください。
Sun Cluster のほとんどの管理作業は、clsetup(1CL) ユーティリティーを使用して対話形式で実行できます。可能なかぎり、本書の管理手順は clsetup ユーティリティーを使用します。
clsetup ユーティリティーを使用すると、「メイン」メニュー内の以下の項目を管理できます。
定足数 (quorum)
リソースグループ
データサービス
クラスタインターコネクト
デバイスグループとボリューム
プライベートホスト名
新規ノード
そのほかのクラスタタスク
Sun Cluster 構成を管理するために使用するそのほかのコマンドを次のリストに示します。 詳細は、マニュアルページを参照してください。
クラスタへの遠隔コンソールアクセスを開始します。
IP ネットワークマルチパスグループ内のあるアダプタから別のアダプタに IP アドレスを切り換えます。
ノードを追加するために Sun Cluster アクセスポリシーを管理します。
Sun Cluster デバイスを管理します。
Sun Cluster デバイスグループを管理します。
Sun Cluster インターコネクトを管理します。
Sun Cluster 構成の NAS デバイスへのアクセスを管理します。
Sun Cluster ノードを管理します。
Sun Cluster 定足数を管理します。
論理ホスト名のために Sun Cluster リソースを管理します。
Sun Cluster データサービスのリソースを管理します。
Sun Cluster データサービスのリソースを管理します。
Sun Cluster データサービスのリソースを管理します。
共有アドレスのために Sun Cluster リソースを管理します。
Sun Cluster 構成を対話形式で構成します。
Sun Cluster SNMP ホストを管理します。
Sun Cluster SNMP MIB を管理します。
Sun Cluster SNMP ユーザーを管理します。
システムリソース監視を構成します。
Sun Cluster 構成のグローバル構成とグローバルステータスを管理します。
Veritas Volume Manager (VxVM) を Sun Cluster ノード上で初期化し、状況に応じてルートディスクをカプセル化します。
ゾーンクラスタの作成と変更を行います。
さらに、コマンドを使用して Sun Cluster 構成のボリューム管理ソフトウェアを管理することもできます。使用するコマンドは、クラスタで使用している特定のボリュームマネージャー (Solstice DiskSuiteTM ソフトウェア、Veritas Volume Manager、または Solaris Volume Manager) によって異なります。
ここでは、クラスタの管理を準備する方法について説明します。
Sun Cluster ハードウェア構成は時とともに変化していくので、サイトに固有なハードウェアの特徴は記録しておきます。クラスタを変更または更新するときには、このハードウェアの記録を参照することで管理作業を少なくすることができます。また、さまざまなクラスタ構成要素間のケーブルや接続部にラベルを付けておくと、管理作業が簡単になります。
また、元のクラスタ構成とその後の変更を記録しておくと、サン以外のサービスプロパイダがクラスタをサービスする時間を節約できます。
「管理コンソール」として専用のワークステーション、または管理ネットワークを介して接続されたワークステーションを使用すると動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) と、グラフィカルユーザーインターフェース (Graphical User Interface、GUI) ツールを管理コンソールにインストールして実行します。CCP の詳細は、「クラスタに遠隔ログインする」を参照してください。Sun Management Center 用の Cluster Control Panel モジュールと Sun Cluster Manager GUI ツールをインストールする方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークまたはネットワークベースの端末集配信装置 (コンセントレータ) を通じてクラスタノードに遠隔アクセスするために使用します。
SPARC クラスタが Sun Enterprise TM 10000 サーバーで構成されている場合、管理コンソールからシステムサービスプロセッサ (System Service Processor、SSP) にログインする必要があります。netcon コマンドを使用して接続する。netcon が Sun Enterprise 10000 ドメインと接続する場合デフォルトは、ネットワークインタフェースを経由する方法を使用します。ネットワークにアクセスできない場合は、-f オプションを使用するか、通常の netcon セッション中に ~* を入力し、netcon を「排他モード」で使用できます。どちらの解決方法でも、ネットワークにアクセスできなくなった場合には、シリアルインタフェースに切り換えることができます。
Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できます。
システム管理者や保守担当者がすみやかに問題を解決できるようになる可能性があります。
ご使用のクラスタを定期的にバックアップしてください。Sun Cluster ソフトウェアは高可用性環境を備えており、データのミラー化されたコピーを記憶装置に保存していますが、これが定期的なバックアップの代わりになるとは考えないでください。Sun Cluster 構成は、複数の障害に耐えることができますが、ユーザーやプログラムのエラー、または致命的な障害から保護する機能を備えていません。したがって、データ損失に対する保護のために、バックアップ手順を用意しておいてください。
次の情報もバックアップしてください。
すべてのファイルシステムのパーティション
DBMS データサービスを実行している場合は、すべてのデータベースのデータ
すべてのクラスタディスクのディスクパーティション情報
md.tab ファイル (ボリュームマネージャーとして Solstice DiskSuite Solaris Volume Manager を使用している場合)
表 1–2 にクラスタ管理の開始点を示します。
グローバルクラスタ投票ノードからのみ実行する Sun Cluster コマンドは、ゾーンクラスタには使用できません。各種ゾーンでのコマンドの有効な使用方法については、Sun Cluster の該当するマニュアルページを参照してください。
|
作業 |
ツール |
参照先 |
|---|---|---|
|
クラスタへの遠隔ログイン |
ccp コマンドを使用して Cluster Control Panel (CCP) を起動します。次に、cconsole、crlogin、cssh、ctelnet の中からいずれかのアイコンを選択します。 | |
|
対話形式でのクラスタの構成 |
clzonecluster(1CL) ユーティリティーか clsetup(1CL) ユーティリティーを起動します。 | |
|
Sun Cluster のリリース番号とバージョン情報の表示 |
clnode(1CL) コマンドと show-rev --v -node サブコマンドおよびオプションを使用します。 | |
|
インストールされているリソース、リソースグループ、リソースタイプの表示 |
リソース情報を表示するには、以下に示すコマンドを使用します。 | |
|
クラスタコンポーネントをグラフィカルに監視 |
Sun Cluster Manager を使用します。 |
オンラインヘルプを参照 |
|
いくつかのクラスタコンポーネントをグラフィカルに管理 |
Sun Management Center 用の Sun Cluster Manager または Sun Cluster モジュールを使用します (Sun Management Center は、SPARC ベースシステム上の Sun Cluster でのみ利用可)。 |
Sun Cluster Manager の場合は、オンラインヘルプを参照 Sun Management Center の場合は、Sun Management Center のマニュアルを参照 |
|
クラスタコンポーネントの状態を確認します。 |
cluster(1CL) コマンドを status サブコマンドとともに使用します。 | |
|
パブリックネットワーク上の IP ネットワークマルチパスグループの状態確認 |
グローバルクラスタの場合は、-m オプションを指定して、clnode(1CL) status コマンドを使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) show コマンドを使用します。 | |
|
クラスタ構成を表示します。 |
グローバルクラスタの場合は、cluster(1CL) コマンドを show サブコマンドとともに使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) コマンドを show サブコマンドとともに使用します。 | |
|
グローバルマウントポイントの確認またはクラスタ構成の検証 |
グローバルクラスタの場合は、sccheck(1M) コマンドを使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) verify コマンドを使用します。 | |
|
Sun Cluster のコマンドログの内容の参照 |
/var/cluster/logs/commandlog ファイルを確認します。 | |
|
Sun Cluster のシステムメッセージの参照 |
/var/adm/messages ファイルを確認します。 | |
|
Solstice DiskSuite の状態の監視 |
metastat コマンドを使用します。 |
Solaris Volume Manager のマニュアル |
|
Solaris Volume Manager の状態を監視する (Solaris 9 または Solaris 10 が動作している場合) |
metastat コマンドを使用します。 |
Cluster Control Panel (CCP) には、cconsole、crlogin、cssh、および ctelnet ツール用の起動パッドが用意されています。これらのツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。
cconsole、crlogin、cssh、ctelnet セッションは、コマンド行から開始することもできます。
デフォルトでは、cconsole ユーティリティーは telnet 接続を使用してノードコンソールに接続します。代わりにコンソールへの Secure Shell 接続を確立するには、cconsole ウィンドウの「オプション (Options)」メニューの「SSH の使用 (Use SSH)」チェックボックスをオンにします。または、ccp または cconsole コマンドを実行するときに -s オプションを指定します。
ccp(1M) と cconsole(1M) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
クラスタコントロールパネル (CCP) を起動する前に、次の条件を満たしていることを確認します。
SUNWccon パッケージを管理コンソール上にインストールします。
管理コンソールの PATH 変数に、Sun Cluster ツールのディレクトリ /opt/SUNWcluster/bin と /usr/cluster/bin が含まれることを確認します。ツールのディレクトリには、$CLUSTER_HOME 環境変数を設定することで別の場所を指定できます。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
Sun Enterprise 10000 サーバー プラットフォームを使用している場合は、システムサービスプロセッサ (System Service Processor、SSP) にログインします。
管理コンソールから CCP 起動パッドを起動します。
phys-schost# ccp clustername |
CCP 起動パッドが表示されます。
クラスタとの遠隔セッションを開始するには、CCP 起動パッドの cconsole アイコン、crlogin アイコン、cssh アイコン、または ctelnet アイコンをクリックします。
クラスタノードのコンソールへの Secure Shell 接続を確立するには、次の手順を実行します。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。
serialports ファイルで、各コンソールアクセスデバイスへの安全な接続に使用するポート番号を割り当てます。Secure Shell 接続のデフォルトのポート番号は 22 です。
詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
管理コンソールでスーパーユーザーになります。
保護されたモードで cconsole ユーティリティーを起動します。
# cconsole -s [-l username] [-p ssh-port] |
Secure Shell 接続を有効にします。
遠隔接続のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。
使用する Secure Shell ポート番号を指定します。-p オプションが指定されていない場合、デフォルトのポート番号 22 が安全な接続に使用されます。
clsetup ユーティリティーを使用すると、グローバルクラスタの定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、新しいノードのオプションを対話形式で構成できます。clzonecluster ユーティリティーは、同様な構成作業をゾーンクラスタに対して実行します。詳細は、clsetup(1CL) と clzonecluster(1CL) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
構成ユーティリティーを起動します。
phys-schost# clsetup |
使用する構成をメニューから選択します。画面に表示される指示に従って、作業を完了します。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」に記述されている手順を参照してください。
詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
次に、パッチ 110648-05 についての情報を表示した例を示します。
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
Sun Cluster のリリース情報およびバージョン情報の表示:
phys-schost# clnode show-rev -v -node |
このコマンドは、すべての Sun Cluster パッケージについて Sun Cluster のリリース番号とバージョン文字列を表示します。
次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。
phys-schost# clnode show-rev 3.2 phys-schost#% clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細は、第 12 章グラフィカルユーザーインタフェースによる Sun Cluster の管理または Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
クラスタで構成されているリソースタイプ、リソースグループ、リソースを表示します。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup |
個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。
resource
resource group
resourcetype
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup
=== Registered Resource Types ===
Resource Type: SUNW.qfs
RT_description: SAM-QFS Agent on SunCluster
RT_version: 3.1
API_version: 3
RT_basedir: /opt/SUNWsamfs/sc/bin
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: <NULL>
RT_system: False
=== Resource Groups and Resources ===
Resource Group: qfs-rg
RG_description: <NULL>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-2 phys-schost-1
--- Resources for Group qfs-rg ---
Resource: qfs-res
Type: SUNW.qfs
Type_version: 3.1
Group: qfs-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-2}: True
Enabled{phys-schost-1}: True
Monitored{phys-schost-2}: True
Monitored{phys-schost-1}: True
|
この手順は、Sun Cluster Manager GUI を使用しても実行できます。 詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
ゾーンクラスタの状態は、cluster status コマンドでも表示できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
次に、cluster(1CL) status で返されるクラスタコンポーネントの状態情報の例を示します。
phys-schost# cluster status
=== Cluster Nodes ===
--- Node Status ---
Node Name Status
--------- ------
phys-schost-1 Online
phys-schost-2 Online
=== Cluster Transport Paths ===
Endpoint1 Endpoint2 Status
--------- --------- ------
phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
phys-schost-1:hme1 phys-schost-4:hme1 Path online
=== Cluster Quorum ===
--- Quorum Votes Summary ---
Needed Present Possible
------ ------- --------
3 3 4
--- Quorum Votes by Node ---
Node Name Present Possible Status
--------- ------- -------- ------
phys-schost-1 1 1 Online
phys-schost-2 1 1 Online
--- Quorum Votes by Device ---
Device Name Present Possible Status
----------- ------- -------- ------
/dev/did/rdsk/d2s2 1 1 Online
/dev/did/rdsk/d8s2 0 1 Offline
=== Cluster Device Groups ===
--- Device Group Status ---
Device Group Name Primary Secondary Status
----------------- ------- --------- ------
schost-2 phys-schost-2 - Degraded
--- Spare, Inactive, and In Transition Nodes ---
Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes
----------------- ----------- -------------- --------------------
schost-2 - - -
=== Cluster Resource Groups ===
Group Name Node Name Suspended Status
---------- --------- --------- ------
test-rg phys-schost-1 No Offline
phys-schost-2 No Online
test-rg phys-schost-1 No Offline
phys-schost-2 No Error--stop failed
test-rg phys-schost-1 No Online
phys-schost-2 No Online
=== Cluster Resources ===
Resource Name Node Name Status Message
------------- --------- ------ -------
test_1 phys-schost-1 Offline Offline
phys-schost-2 Online Online
test_1 phys-schost-1 Offline Offline
phys-schost-2 Stop failed Faulted
test_1 phys-schost-1 Online Online
phys-schost-2 Online Online
Device Instance Node Status
--------------- ---- ------
/dev/did/rdsk/d2 phys-schost-1 Ok
/dev/did/rdsk/d3 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d4 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d6 phys-schost-2 Ok
=== Zone Clusters ===
--- Zone Cluster Status ---
Name Node Name Zone HostName Status Zone Status
---- --------- ------------- ------ -----------
sczone schost-1 sczone-1 Online Running
schost-2 sczone-2 Online Running
|
この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
IP ネットワークのマルチパスグループのステータスを確認するには、clnode(1CL) コマンドと status サブコマンドとともに使用します。
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
次に、clnode status コマンドで戻されるクラスタコンポーネントの状態情報の例を示します。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
この手順は Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
グローバルクラスタまたはゾーンクラスタの構成を表示します。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% cluster show |
cluster show コマンドをグローバルクラスタの投票ノードから実行すると、そのクラスタに関する詳細な構成情報が表示されます。また、ゾーンクラスタが構成されていれば、ゾーンクラスタの情報も表示されます。
ゾーンクラスタのみに関する構成情報を表示するには、clzonecluster show コマンドも使用できます。ゾーンクラスタのプロパティーには、ゾーンクラスタ名、IP タイプ、自動起動、ゾーンパスなどがあります。show サブコマンドは、ゾーンクラスタの内部で実行され、そのゾーンクラスタのみが対象になります。ゾーンクラスタノードから clzonecluster show コマンドを実行すると、そのゾーンクラスタから認識可能なオブジェクトのみの状態が得られます。
cluster コマンドでより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。clzonecluster の詳細は、clzonecluster(1CL) のマニュアルページを参照してください。
次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。
phys-schost# cluster show |
=== Cluster ===
Cluster Name: cluster-1
installmode: disabled
heartbeat_timeout: 10000
heartbeat_quantum: 1000
private_netaddr: 172.16.0.0
private_netmask: 255.255.248.0
max_nodes: 64
max_privatenets: 10
global_fencing: Unknown
Node List: phys-schost-1
Node Zones: phys_schost-2:za
=== Host Access Control ===
Cluster name: clustser-1
Allowed hosts: phys-schost-1, phys-schost-2:za
Authentication Protocol: sys
=== Cluster Nodes ===
Node Name: phys-schost-1
Node ID: 1
Type: cluster
Enabled: yes
privatehostname: clusternode1-priv
reboot_on_path_failure: disabled
globalzoneshares: 3
defaultpsetmin: 1
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000001
Transport Adapter List: qfe3, hme0
--- Transport Adapters for phys-schost-1 ---
Transport Adapter: qfe3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): qfe
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.1
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: hme0
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): hme
Adapter Property(device_instance): 0
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.129
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-1 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-1 ---
--- SNMP User Configuration on phys-schost-1 ---
SNMP User Name: foo
Authentication Protocol: MD5
Default User: No
Node Name: phys-schost-2:za
Node ID: 2
Type: cluster
Enabled: yes
privatehostname: clusternode2-priv
reboot_on_path_failure: disabled
globalzoneshares: 1
defaultpsetmin: 2
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000002
Transport Adapter List: hme0, qfe3
--- Transport Adapters for phys-schost-2 ---
Transport Adapter: hme0
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): hme
Adapter Property(device_instance): 0
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.130
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: qfe3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): qfe
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.2
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-2 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-2 ---
--- SNMP User Configuration on phys-schost-2 ---
=== Transport Cables ===
Transport Cable: phys-schost-1:qfe3,switch2@1
Cable Endpoint1: phys-schost-1:qfe3
Cable Endpoint2: switch2@1
Cable State: Enabled
Transport Cable: phys-schost-1:hme0,switch1@1
Cable Endpoint1: phys-schost-1:hme0
Cable Endpoint2: switch1@1
Cable State: Enabled
Transport Cable: phys-schost-2:hme0,switch1@2
Cable Endpoint1: phys-schost-2:hme0
Cable Endpoint2: switch1@2
Cable State: Enabled
Transport Cable: phys-schost-2:qfe3,switch2@2
Cable Endpoint1: phys-schost-2:qfe3
Cable Endpoint2: switch2@2
Cable State: Enabled
=== Transport Switches ===
Transport Switch: switch2
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
Transport Switch: switch1
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
=== Quorum Devices ===
Quorum Device Name: d3
Enabled: yes
Votes: 1
Global Name: /dev/did/rdsk/d3s2
Type: scsi
Access Mode: scsi2
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Device Name: qs1
Enabled: yes
Votes: 1
Global Name: qs1
Type: quorum_server
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Server Host: 10.11.114.83
Port: 9000
=== Device Groups ===
Device Group Name: testdg3
Type: SVM
failback: no
Node List: phys-schost-1, phys-schost-2
preferenced: yes
numsecondaries: 1
diskset name: testdg3
=== Registered Resource Types ===
Resource Type: SUNW.LogicalHostname:2
RT_description: Logical Hostname Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hafoip
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: SUNWscu
RT_system: True
Resource Type: SUNW.SharedAddress:2
RT_description: HA Shared Address Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hascip
Single_instance: False
Proxy: False
Init_nodes: <Unknown>
Installed_nodes: <All>
Failover: True
Pkglist: SUNWscu
RT_system: True
Resource Type: SUNW.HAStoragePlus:4
RT_description: HA Storage Plus
RT_version: 4
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWscu
RT_system: False
Resource Type: SUNW.haderby
RT_description: haderby server for Sun Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/haderby
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWscderby
RT_system: False
Resource Type: SUNW.sctelemetry
RT_description: sctelemetry service for Sun Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry
Single_instance: True
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWsctelemetry
RT_system: False
=== Resource Groups and Resources ===
Resource Group: HA_RG
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group HA_RG ---
Resource: HA_R
Type: SUNW.HAStoragePlus:4
Type_version: 4
Group: HA_RG
R_description:
Resource_project_name: SCSLM_HA_RG
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-db-rg
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-db-rg ---
Resource: cl-db-rs
Type: SUNW.haderby
Type_version: 1
Group: cl-db-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-tlmtry-rg
RG_description: <Null>
RG_mode: Scalable
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-tlmtry-rg ---
Resource: cl-tlmtry-rs
Type: SUNW.sctelemetry
Type_version: 1
Group: cl-tlmtry-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
=== DID Device Instances ===
DID Device Name: /dev/did/rdsk/d1
Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d2
Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d3
Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d4
Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d5
Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d6
Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
=== NAS Devices ===
Nas Device: nas_filer1
Type: netapp
User ID: root
Nas Device: nas2
Type: netapp
User ID: llai
|
次に、ゾーンクラスタ構成のプロパティの例を示します。
% clzonecluster show
=== Zone Clusters ===
Zone Cluster Name: sczone
zonename: sczone
zonepath: /zones/sczone
autoboot: TRUE
ip-type: shared
enable_priv_net: TRUE
--- Solaris Resources for sczone ---
Resource Name: net
address: 172.16.0.1
physical: auto
Resource Name: net
address: 172.16.0.2
physical: auto
Resource Name: fs
dir: /gz/db_qfs/CrsHome
special: CrsHome
raw:
type: samfs
options: []
Resource Name: fs
dir: /gz/db_qfs/CrsData
special: CrsData
raw:
type: samfs
options: []
Resource Name: fs
dir: /gz/db_qfs/OraHome
special: OraHome
raw:
type: samfs
options: []
Resource Name: fs
dir: /gz/db_qfs/OraData
special: OraData
raw:
type: samfs
options: []
--- Zone Cluster Nodes for sczone ---
Node Name: sczone-1
physical-host: sczone-1
hostname: lzzone-1
Node Name: sczone-2
physical-host: sczone-2
hostname: lzzone-2
|
sccheck(1M) コマンドは、グローバルクラスタが正しく機能するために必要な基本構成を検証する一連のチェックを実行します。エラーがない場合、sccheck は単にシェルプロンプトに戻ります。エラーがあると、sccheck は、指定された出力ディレクトリかデフォルトの出力ディレクトリにレポートを出力します。sccheck を複数のノードに対して実行すると、sccheck は、ノードごとのレポートと複数ノードチェックのレポートが生成されます。
sccheck コマンドは、 データ収集のステップと分析のステップからなります。システム構成によっては、データ収集に長い時間がかかることがあります。sccheck に -v1 フラグを指定し、冗長モードで実行することによって、進捗メッセージを表示できます。あるいは、sccheck に -v2 フラグを指定し、高冗長モードで実行することによって、より詳細な進捗メッセージを表示できます (特にデータ収集時)。
sccheck は、デバイス、ボリューム管理コンポーネント、または Sun Cluster 構成を変更するような管理手順を行った後に実行してください。
clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# su |
クラスタ構成を検証します。
次の例は、sccheck を冗長モードで phys-schost-1 と phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
phys-schost# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/sccheck/myReports/ に作成されます。
phys-schost# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) コマンドには、/etc/vfstab ファイルでクラスタファイルシステムとそのグローバルマウントポイントの構成エラーを調べるチェックが含まれています。
sccheck は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えた後で実行してください。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% su |
グローバルクラスタ構成を検証します。
phys-schost# sccheck |
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートが出力ディレクトリ /var/cluster/sccheck/myReports/ に送信されます。
phys-schost# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Sun Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタをセットアップしたときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。
クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。
次のような、クラスタの現在の状態の設定や変更を行うコマンドは、このファイルに記録されます。
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog ファイル内のレコードには次の要素を含めることができます。
日付とタイムスタンプ
コマンドの実行元であるホストの名前
コマンドのプロセス ID
コマンドを実行したユーザーのログイン名
ユーザーが実行したコマンド (すべてのオプションとオペランドを含む)
すぐに特定し、シェル内でコピー、貼り付け、および実行ができるように、コマンドのオプションは commandlog ファイル内では引用符で囲まれています。
実行されたコマンドの終了ステータス
あるコマンドが未知の結果を伴って異常終了した場合、Sun Cluster ソフトウェアは commandlog ファイル内には終了ステータスを「表示しません」。
commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。
Sun Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。
一度に 1 つの画面で、現在の週の commandlog ファイルの内容を表示します。
phys-schost# more /var/cluster/logs/commandlog |
次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |