この章では、グローバルクラスタとゾーンクラスタの管理に関する次の情報と、Sun™ Cluster 管理ツールの使用手順について説明します。
Solaris™ 10 OS の場合、グローバルクラスタは、1 つ以上のグローバルクラスタ投票ノードのみで構成されますが、オプションで 0 個以上のグローバルクラスタ非投票ノードを含むこともできます。 グローバルクラスタには、オプションで、Solaris 8 OS、Solaris 9 OS、LINUX OS、またはネイティブブランドの非大域ゾーン (ノードではなく高可用性コンテナ) をリソースとして含めることもできます。ゾーンクラスタには、グローバルクラスタが必須です。ゾーンクラスタの概要については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
Solaris 10 OS の場合、ゾーンクラスタは、クラスタブランドの 1 つ以上の投票ノードのみで構成されます。 ゾーンクラスタは、グローバルクラスタに依存しており、したがって、グローバルクラスタを必要とします。グローバルクラスタはゾーンクラスタを含みません。ゾーンクラスタは、グローバルクラスタなしでは構成できません。ゾーンクラスタが同じマシン上に含むことができるのは、多い場合でも 1 つのゾーンクラスタのみです。ゾーンクラスタノードは、同じマシン上のグローバルクラスタ投票ノードが動作している場合にのみ動作します。あるマシンのグローバルクラスタ投票ノードで障害が発生すると、同じマシン上のすべてのゾーンクラスタノードも動作しなくなります。
Sun Cluster の高可用性環境によって、重要なアプリケーションの可用性がエンドユーザーに対して保証されます。システム管理者の業務は、Sun Cluster 構成の安定した動作を保証することです。
管理作業を始める前に、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』と『Sun Cluster の概念 (Solaris OS 版)』に記載されている計画情報をよく理解しておいてください。ゾーンクラスタの作成手順については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」を参照してください。Sun Cluster の管理は、次の作業ごとに各マニュアルにまとめられています。
グローバルクラスタまたはゾーンクラスタを定期的に (または毎日) 管理および維持するための標準的な作業。これらの作業は、このマニュアルで説明されています。
インストール、構成、属性の変更などのデータサービス作業。これらの作業は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』で説明されています。
記憶装置やネットワークハードウェアの追加や保守などのサービス作業。これらの作業は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』で説明されています。
一般に、Sun Cluster の管理作業はクラスタの稼働中に実行できます。クラスタからノードを取り外す必要がある場合、あるいはノードを停止する必要がある場合でも、残りのノードがクラスタを稼働している間に作業を行うことができます。Solaris 10 では、明記していないかぎり、Sun Cluster の管理作業はグローバルクラスタの投票ノードで行うべきです。クラスタ全体を停止する必要がある手順については、ダウンタイムのスケジュールを通常の業務時間外に設定してシステムへの影響を最小限に抑えてください。クラスタまたはクラスタノードを停止する予定があるときは、あらかじめユーザーに通知しておいてください。
Sun Cluster の 2 つの管理コマンド (cluster および clnode) は、ゾーンクラスタでも実行できます。ただし、このコマンドの対象は、コマンドが発行されたゾーンクラスタに限定されます。たとえば、グローバルクラスタの投票ノードで cluster コマンドを使用すると、投票グローバルクラスタおよびすべてのゾーンクラスタに関するすべての情報が得られます。cluster コマンドをゾーンクラスタで使用すると、そのゾーンクラスタのみの情報が得られます。
clzonecluster コマンドを投票ノードで使用すると、グローバルクラスタ内のすべてのゾーンクラスタが対象になります。ゾーンクラスタコマンドはゾーンクラスタ上のすべてのノードを対象とします (コマンド発行時に停止していたノードも対象になります)。
ゾーンクラスタは、リソースグループマネージャー (Resource Group Manager、RGM) の制御下にあるリソースの委任管理をサポートしています。そのため、ゾーンクラスタの管理者は、クラスタ境界にまたがるゾーンクラスタ依存関係を表示できます (ただし、変更はできません)。クラスタ境界にまたがるゾーンクラスタ依存関係を作成し、変更し、削除できるのは、投票ノード内の管理者のみです。
次の表に、ゾーンクラスタで実行する主な管理作業を示します。
ゾーンクラスタの作成 – clzonecluster configure コマンドを使用して、新しいゾーンクラスタを作成します。手順については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」を参照してください。
ゾーンクラスタの起動と再起動 –第 3 章クラスタの停止と起動を参照してください。
ゾーンクラスタへのノードの追加 – 「ノードの追加」を参照してください。
ゾーンクラスタからのノードの削除 – 「ゾーンクラスタからノードを削除する」を参照してください。
ゾーンクラスタの構成の表示 – 「クラスタ構成を表示する」を参照してください。
ゾーンクラスタの構成の検証 – 「基本的なクラスタ構成を検証する」を参照してください。
ゾーンクラスタの停止 – 第 3 章クラスタの停止と起動を参照してください。
Solaris 10 Service Management Facility (SMF) 管理インタフェースを使用して、次の Sun Cluster サービスを有効または無効にしないでください。
表 1–1 Sun Cluster サービス
Sun Cluster サービス |
FMRI |
---|---|
pnm |
svc:/system/cluster/pnm:default |
cl_event |
svc:/system/cluster/cl_event:default |
cl_eventlog |
svc:/system/cluster/cl_eventlog:default |
rpc_pmf |
svc:/system/cluster/rpc_pmf:default |
rpc_fed |
svc:/system/cluster/rpc_fed:default |
rgm |
svc:/system/cluster/rgm:default |
scdpm |
svc:/system/cluster/scdpm:default |
cl_ccra |
svc:/system/cluster/cl_ccra:default |
scsymon_srv |
svc:/system/cluster/scsymon_srv:default |
spm |
svc:/system/cluster/spm:default |
cl_svc_cluster_milestone |
svc:/system/cluster/cl_svc_cluster_milestone:default |
cl_svc_enable |
svc:/system/cluster/cl_svc_enable:default |
network-multipathing |
svc:/system/cluster/network-multipathing |
Sun Cluster 構成で管理作業を行うときは、グラフィカルユーザーインタフェース (Graphical User Interface、GUI) またはコマンド行を使用できます。次のセクションでは、GUI とコマンド行の理ツールの概要を示します。
Sun Cluster ソフトウェアは、GUI ツールをサポートしています。これらのツールを使えば、クラスタに対してさまざまな管理作業を行うことができます。GUI ツールの 1 つに Sun Cluster Manager があります。また、SPARC ベースのシステムで Sun Cluster ソフトウェアを使用している場合は、Sun Management Center があります。Sun Cluster Manager と Sun Management Center の詳細と構成手順については、第 12 章グラフィカルユーザーインタフェースによる Sun Cluster の管理を参照してください。 Sun Cluster Manager に固有の使い方については、GUI のオンラインヘルプを参照してください。
Sun Cluster のほとんどの管理作業は、clsetup(1CL) ユーティリティーを使用して対話形式で実行できます。可能なかぎり、本書の管理手順は clsetup ユーティリティーを使用します。
clsetup ユーティリティーを使用すると、「メイン」メニュー内の以下の項目を管理できます。
定足数 (quorum)
リソースグループ
データサービス
クラスタインターコネクト
デバイスグループとボリューム
プライベートホスト名
新規ノード
そのほかのクラスタタスク
Sun Cluster 構成を管理するために使用するそのほかのコマンドを次のリストに示します。 詳細は、マニュアルページを参照してください。
クラスタへの遠隔コンソールアクセスを開始します。
IP ネットワークマルチパスグループ内のあるアダプタから別のアダプタに IP アドレスを切り換えます。
ノードを追加するために Sun Cluster アクセスポリシーを管理します。
Sun Cluster デバイスを管理します。
Sun Cluster デバイスグループを管理します。
Sun Cluster インターコネクトを管理します。
Sun Cluster 構成の NAS デバイスへのアクセスを管理します。
Sun Cluster ノードを管理します。
Sun Cluster 定足数を管理します。
論理ホスト名のために Sun Cluster リソースを管理します。
Sun Cluster データサービスのリソースを管理します。
Sun Cluster データサービスのリソースを管理します。
Sun Cluster データサービスのリソースを管理します。
共有アドレスのために Sun Cluster リソースを管理します。
Sun Cluster 構成を対話形式で構成します。
Sun Cluster SNMP ホストを管理します。
Sun Cluster SNMP MIB を管理します。
Sun Cluster SNMP ユーザーを管理します。
システムリソース監視を構成します。
Sun Cluster 構成のグローバル構成とグローバルステータスを管理します。
Veritas Volume Manager (VxVM) を Sun Cluster ノード上で初期化し、状況に応じてルートディスクをカプセル化します。
ゾーンクラスタの作成と変更を行います。
さらに、コマンドを使用して Sun Cluster 構成のボリューム管理ソフトウェアを管理することもできます。使用するコマンドは、クラスタで使用している特定のボリュームマネージャー (Solstice DiskSuiteTM ソフトウェア、Veritas Volume Manager、または Solaris Volume Manager) によって異なります。
ここでは、クラスタの管理を準備する方法について説明します。
Sun Cluster ハードウェア構成は時とともに変化していくので、サイトに固有なハードウェアの特徴は記録しておきます。クラスタを変更または更新するときには、このハードウェアの記録を参照することで管理作業を少なくすることができます。また、さまざまなクラスタ構成要素間のケーブルや接続部にラベルを付けておくと、管理作業が簡単になります。
また、元のクラスタ構成とその後の変更を記録しておくと、サン以外のサービスプロパイダがクラスタをサービスする時間を節約できます。
「管理コンソール」として専用のワークステーション、または管理ネットワークを介して接続されたワークステーションを使用すると動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) と、グラフィカルユーザーインターフェース (Graphical User Interface、GUI) ツールを管理コンソールにインストールして実行します。CCP の詳細は、「クラスタに遠隔ログインする」を参照してください。Sun Management Center 用の Cluster Control Panel モジュールと Sun Cluster Manager GUI ツールをインストールする方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークまたはネットワークベースの端末集配信装置 (コンセントレータ) を通じてクラスタノードに遠隔アクセスするために使用します。
SPARC クラスタが Sun Enterprise TM 10000 サーバーで構成されている場合、管理コンソールからシステムサービスプロセッサ (System Service Processor、SSP) にログインする必要があります。netcon コマンドを使用して接続する。netcon が Sun Enterprise 10000 ドメインと接続する場合デフォルトは、ネットワークインタフェースを経由する方法を使用します。ネットワークにアクセスできない場合は、-f オプションを使用するか、通常の netcon セッション中に ~* を入力し、netcon を「排他モード」で使用できます。どちらの解決方法でも、ネットワークにアクセスできなくなった場合には、シリアルインタフェースに切り換えることができます。
Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できます。
システム管理者や保守担当者がすみやかに問題を解決できるようになる可能性があります。
ご使用のクラスタを定期的にバックアップしてください。Sun Cluster ソフトウェアは高可用性環境を備えており、データのミラー化されたコピーを記憶装置に保存していますが、これが定期的なバックアップの代わりになるとは考えないでください。Sun Cluster 構成は、複数の障害に耐えることができますが、ユーザーやプログラムのエラー、または致命的な障害から保護する機能を備えていません。したがって、データ損失に対する保護のために、バックアップ手順を用意しておいてください。
次の情報もバックアップしてください。
すべてのファイルシステムのパーティション
DBMS データサービスを実行している場合は、すべてのデータベースのデータ
すべてのクラスタディスクのディスクパーティション情報
md.tab ファイル (ボリュームマネージャーとして Solstice DiskSuite Solaris Volume Manager を使用している場合)
表 1–2 にクラスタ管理の開始点を示します。
グローバルクラスタ投票ノードからのみ実行する Sun Cluster コマンドは、ゾーンクラスタには使用できません。各種ゾーンでのコマンドの有効な使用方法については、Sun Cluster の該当するマニュアルページを参照してください。
作業 |
ツール |
参照先 |
---|---|---|
クラスタへの遠隔ログイン |
ccp コマンドを使用して Cluster Control Panel (CCP) を起動します。次に、cconsole、crlogin、cssh、ctelnet の中からいずれかのアイコンを選択します。 | |
対話形式でのクラスタの構成 |
clzonecluster(1CL) ユーティリティーか clsetup(1CL) ユーティリティーを起動します。 | |
Sun Cluster のリリース番号とバージョン情報の表示 |
clnode(1CL) コマンドと show-rev --v -node サブコマンドおよびオプションを使用します。 | |
インストールされているリソース、リソースグループ、リソースタイプの表示 |
リソース情報を表示するには、以下に示すコマンドを使用します。 | |
クラスタコンポーネントをグラフィカルに監視 |
Sun Cluster Manager を使用します。 |
オンラインヘルプを参照 |
いくつかのクラスタコンポーネントをグラフィカルに管理 |
Sun Management Center 用の Sun Cluster Manager または Sun Cluster モジュールを使用します (Sun Management Center は、SPARC ベースシステム上の Sun Cluster でのみ利用可)。 |
Sun Cluster Manager の場合は、オンラインヘルプを参照 Sun Management Center の場合は、Sun Management Center のマニュアルを参照 |
クラスタコンポーネントの状態を確認します。 |
cluster(1CL) コマンドを status サブコマンドとともに使用します。 | |
パブリックネットワーク上の IP ネットワークマルチパスグループの状態確認 |
グローバルクラスタの場合は、-m オプションを指定して、clnode(1CL) status コマンドを使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) show コマンドを使用します。 | |
クラスタ構成を表示します。 |
グローバルクラスタの場合は、cluster(1CL) コマンドを show サブコマンドとともに使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) コマンドを show サブコマンドとともに使用します。 | |
グローバルマウントポイントの確認またはクラスタ構成の検証 |
グローバルクラスタの場合は、sccheck(1M) コマンドを使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) verify コマンドを使用します。 | |
Sun Cluster のコマンドログの内容の参照 |
/var/cluster/logs/commandlog ファイルを確認します。 | |
Sun Cluster のシステムメッセージの参照 |
/var/adm/messages ファイルを確認します。 | |
Solstice DiskSuite の状態の監視 |
metastat コマンドを使用します。 |
Solaris Volume Manager のマニュアル |
Solaris Volume Manager の状態を監視する (Solaris 9 または Solaris 10 が動作している場合) |
metastat コマンドを使用します。 |
Cluster Control Panel (CCP) には、cconsole、crlogin、cssh、および ctelnet ツール用の起動パッドが用意されています。これらのツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。
cconsole、crlogin、cssh、ctelnet セッションは、コマンド行から開始することもできます。
デフォルトでは、cconsole ユーティリティーは telnet 接続を使用してノードコンソールに接続します。代わりにコンソールへの Secure Shell 接続を確立するには、cconsole ウィンドウの「オプション (Options)」メニューの「SSH の使用 (Use SSH)」チェックボックスをオンにします。または、ccp または cconsole コマンドを実行するときに -s オプションを指定します。
ccp(1M) と cconsole(1M) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
クラスタコントロールパネル (CCP) を起動する前に、次の条件を満たしていることを確認します。
SUNWccon パッケージを管理コンソール上にインストールします。
管理コンソールの PATH 変数に、Sun Cluster ツールのディレクトリ /opt/SUNWcluster/bin と /usr/cluster/bin が含まれることを確認します。ツールのディレクトリには、$CLUSTER_HOME 環境変数を設定することで別の場所を指定できます。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
Sun Enterprise 10000 サーバー プラットフォームを使用している場合は、システムサービスプロセッサ (System Service Processor、SSP) にログインします。
管理コンソールから CCP 起動パッドを起動します。
phys-schost# ccp clustername |
CCP 起動パッドが表示されます。
クラスタとの遠隔セッションを開始するには、CCP 起動パッドの cconsole アイコン、crlogin アイコン、cssh アイコン、または ctelnet アイコンをクリックします。
クラスタノードのコンソールへの Secure Shell 接続を確立するには、次の手順を実行します。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。
serialports ファイルで、各コンソールアクセスデバイスへの安全な接続に使用するポート番号を割り当てます。Secure Shell 接続のデフォルトのポート番号は 22 です。
詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
管理コンソールでスーパーユーザーになります。
保護されたモードで cconsole ユーティリティーを起動します。
# cconsole -s [-l username] [-p ssh-port] |
Secure Shell 接続を有効にします。
遠隔接続のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。
使用する Secure Shell ポート番号を指定します。-p オプションが指定されていない場合、デフォルトのポート番号 22 が安全な接続に使用されます。
clsetup ユーティリティーを使用すると、グローバルクラスタの定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、新しいノードのオプションを対話形式で構成できます。clzonecluster ユーティリティーは、同様な構成作業をゾーンクラスタに対して実行します。詳細は、clsetup(1CL) と clzonecluster(1CL) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
構成ユーティリティーを起動します。
phys-schost# clsetup |
使用する構成をメニューから選択します。画面に表示される指示に従って、作業を完了します。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」に記述されている手順を参照してください。
詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
次に、パッチ 110648-05 についての情報を表示した例を示します。
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
Sun Cluster のリリース情報およびバージョン情報の表示:
phys-schost# clnode show-rev -v -node |
このコマンドは、すべての Sun Cluster パッケージについて Sun Cluster のリリース番号とバージョン文字列を表示します。
次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。
phys-schost# clnode show-rev 3.2 phys-schost#% clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細は、第 12 章グラフィカルユーザーインタフェースによる Sun Cluster の管理または Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
クラスタで構成されているリソースタイプ、リソースグループ、リソースを表示します。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup |
個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。
resource
resource group
resourcetype
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on SunCluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。 詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
ゾーンクラスタの状態は、cluster status コマンドでも表示できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
次に、cluster(1CL) status で返されるクラスタコンポーネントの状態情報の例を示します。
phys-schost# cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
IP ネットワークのマルチパスグループのステータスを確認するには、clnode(1CL) コマンドと status サブコマンドとともに使用します。
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
次に、clnode status コマンドで戻されるクラスタコンポーネントの状態情報の例を示します。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
この手順は Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
グローバルクラスタまたはゾーンクラスタの構成を表示します。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% cluster show |
cluster show コマンドをグローバルクラスタの投票ノードから実行すると、そのクラスタに関する詳細な構成情報が表示されます。また、ゾーンクラスタが構成されていれば、ゾーンクラスタの情報も表示されます。
ゾーンクラスタのみに関する構成情報を表示するには、clzonecluster show コマンドも使用できます。ゾーンクラスタのプロパティーには、ゾーンクラスタ名、IP タイプ、自動起動、ゾーンパスなどがあります。show サブコマンドは、ゾーンクラスタの内部で実行され、そのゾーンクラスタのみが対象になります。ゾーンクラスタノードから clzonecluster show コマンドを実行すると、そのゾーンクラスタから認識可能なオブジェクトのみの状態が得られます。
cluster コマンドでより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。clzonecluster の詳細は、clzonecluster(1CL) のマニュアルページを参照してください。
次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。
phys-schost# cluster show |
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai |
次に、ゾーンクラスタ構成のプロパティの例を示します。
% clzonecluster show === Zone Clusters === Zone Cluster Name: sczone zonename: sczone zonepath: /zones/sczone autoboot: TRUE ip-type: shared enable_priv_net: TRUE --- Solaris Resources for sczone --- Resource Name: net address: 172.16.0.1 physical: auto Resource Name: net address: 172.16.0.2 physical: auto Resource Name: fs dir: /gz/db_qfs/CrsHome special: CrsHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/CrsData special: CrsData raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraHome special: OraHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraData special: OraData raw: type: samfs options: [] --- Zone Cluster Nodes for sczone --- Node Name: sczone-1 physical-host: sczone-1 hostname: lzzone-1 Node Name: sczone-2 physical-host: sczone-2 hostname: lzzone-2 |
sccheck(1M) コマンドは、グローバルクラスタが正しく機能するために必要な基本構成を検証する一連のチェックを実行します。エラーがない場合、sccheck は単にシェルプロンプトに戻ります。エラーがあると、sccheck は、指定された出力ディレクトリかデフォルトの出力ディレクトリにレポートを出力します。sccheck を複数のノードに対して実行すると、sccheck は、ノードごとのレポートと複数ノードチェックのレポートが生成されます。
sccheck コマンドは、 データ収集のステップと分析のステップからなります。システム構成によっては、データ収集に長い時間がかかることがあります。sccheck に -v1 フラグを指定し、冗長モードで実行することによって、進捗メッセージを表示できます。あるいは、sccheck に -v2 フラグを指定し、高冗長モードで実行することによって、より詳細な進捗メッセージを表示できます (特にデータ収集時)。
sccheck は、デバイス、ボリューム管理コンポーネント、または Sun Cluster 構成を変更するような管理手順を行った後に実行してください。
clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# su |
クラスタ構成を検証します。
次の例は、sccheck を冗長モードで phys-schost-1 と phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
phys-schost# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/sccheck/myReports/ に作成されます。
phys-schost# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) コマンドには、/etc/vfstab ファイルでクラスタファイルシステムとそのグローバルマウントポイントの構成エラーを調べるチェックが含まれています。
sccheck は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えた後で実行してください。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% su |
グローバルクラスタ構成を検証します。
phys-schost# sccheck |
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートが出力ディレクトリ /var/cluster/sccheck/myReports/ に送信されます。
phys-schost# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Sun Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタをセットアップしたときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。
クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。
次のような、クラスタの現在の状態の設定や変更を行うコマンドは、このファイルに記録されます。
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog ファイル内のレコードには次の要素を含めることができます。
日付とタイムスタンプ
コマンドの実行元であるホストの名前
コマンドのプロセス ID
コマンドを実行したユーザーのログイン名
ユーザーが実行したコマンド (すべてのオプションとオペランドを含む)
すぐに特定し、シェル内でコピー、貼り付け、および実行ができるように、コマンドのオプションは commandlog ファイル内では引用符で囲まれています。
実行されたコマンドの終了ステータス
あるコマンドが未知の結果を伴って異常終了した場合、Sun Cluster ソフトウェアは commandlog ファイル内には終了ステータスを「表示しません」。
commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。
Sun Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。
一度に 1 つの画面で、現在の週の commandlog ファイルの内容を表示します。
phys-schost# more /var/cluster/logs/commandlog |
次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |