この章では、クラスタ管理の準備に関する情報と、Sun Cluster 管理ツールの使用手順について説明します。
Sun Cluster の高可用性環境によって、エンドユーザーに対して重要なアプリケーションの可用性が保証されます。システム管理者の業務は、Sun Cluster の安定した動作を保証することです。
管理作業を始める前に、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』と『Sun Cluster の概念 (Solaris OS 版)』に記載されている計画情報をよく理解しておいてください。Sun Cluster の管理は、次の作業ごとに各マニュアルにまとめられています。
定期的に (多くの場合は毎日) クラスタを管理および保守するための標準的な作業。これらの作業は、このマニュアルで説明されています。
インストール、構成、属性の変更などのデータサービス作業。これらの作業は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』で説明されています。
記憶装置やネットワークハードウェアの追加や保守などのサービス作業。これらの作業は、『Sun Cluster Hardware Administration Manual for Solaris OS』で説明されています。
ほとんどの場合、Sun Cluster の管理作業はクラスタの稼動中に実行できるため、ノードが 1 つの場合を除き、クラスタの稼動に影響はありません。クラスタ全体の停止を必要とする手順の場合は、システムへの影響がもっとも少ない勤務時間外に停止時間を予定してください。クラスタまたはクラスタノードを停止する予定があるときは、あらかじめユーザーに通知しておいてください。
Sun Cluster で管理作業を行うときは、グラフィカルユーザーインタフェース (GUI) またはコマンド行を使用できます。以降の節では、GUI とコマンド行の管理ツールの概要を示します。
Sun Cluster は、グラフィカルユーザーインタフェース (GUI) ツールをサポートしています。これらのツールを使えば、クラスタに対してさまざまな管理作業を行うことができます。GUI ツールには、SunPlexTM Manager と Sun Management Center があります (Sun Management Center は SPARC ベースのシステムで Sun Cluster を使用する場合に利用可)。SunPlex Manager と Sun Management Center の詳細と構成手順については、第 10 章「グラフィカルユーザーインタフェースによる Sun Cluster の管理」を参照してください。各ツールに固有の使い方については、各 GUI のオンラインヘルプを参照してください。
Sun Cluster のほとんどの管理作業は、scsetup(1M) ユーティリティを使用して対話形式で実行できます。本書での管理手順の説明には、可能な限り scsetup を使用しています。
scsetup ユーティリティを使用すると、「メイン」メニュー内の以下の項目を管理できます。
定足数 (quorum)
リソースグループ
クラスタインターコネクト
デバイスグループとボリューム
プライベートホスト名
新規ノード
クラスタのその他のプロパティ
scsetup ユーティリティを使用すると、「リソースグループ」メニュー内の以下の項目を管理できます。
リソースグループを作成
ネットワークリソースをリソースグループに追加
データサービスリソースをリソースグループに追加
リソースグループをオンライン / オフライン化、またはスイッチオーバー
リソースを有効化または無効化
リソースグループのプロパティを変更
リソースのプロパティを変更
リソースグループからリソースを削除
リソースグループを削除
リソースの stop_failed エラーフラグをクリア
表 1- 1 に、Sun Cluster を管理するために使用するその他のコマンドのリストを示します。詳細は、マニュアルページを参照してください。
表 1–1 Sun Cluster のコマンド行インタフェースのコマンド
コマンド |
説明 |
---|---|
ccp(1M) |
クラスタへの遠隔コンソールアクセスを開始します。 |
if_mpadm(1M) |
IP マルチパスグループ内のあるアダプタから別のアダプタに IP アドレスを切り換える場合に使用します。 |
sccheck(1M) |
Sun Cluster 構成を確認および検証して、クラスタの最も基本的な構成が機能していることを保証します。 |
scconf(1M) |
Sun Cluster の構成を更新します。-p オプションを指定すると、クラスタの構成情報を一覧表示できます。 |
scdidadm(1M) |
デバイス ID の構成および管理用ユーティリティを実行します。 |
scgdevs(1M) |
広域デバイス名前空間管理スクリプトを実行します。 |
scinstall(1M) |
Sun Cluster ソフトウェアのインストールと構成を行います。対話形式でも、対話形式以外でも実行できます。-p オプションを指定すると、Sun Cluster ソフトウェアのリリース情報とパッケージのバージョン情報が表示されます。 |
scrgadm(1M) |
リソースタイプの登録、リソースグループの作成、リソースグループ内のリソースの起動を管理します。 -p オプションを指定すると、インストールされているリソース、リソースグループ、およびリソースタイプに関する情報を表示できます。 注 – scrgadm を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティ名に大文字と小文字の区別はありません。 |
scsetup(1M) |
対話形式のクラスタ構成ユーティリティを実行します。このユーティリティは、scconf コマンドとそのオプションを生成します。 |
scshutdown(1M) |
クラスタ全体を停止します。 |
scstat(1M) |
クラスタの状態のスナップショットを提供します。 |
scswitch(1M) |
リソースグループとディスクデバイスグループのノードのマスターや状態を変更します。 |
さらに、コマンドを使用して Sun Cluster のボリューム管理ソフトウェアを管理することもできます。使用するコマンドは、クラスタで使用しているボリュームマネージャ (Solstice DiskSuiteTM、VERITAS Volume Manager、または Solaris Volume ManagerTM) によって変わります。
この節では、クラスタ管理の準備を整える上で必要な作業について説明します。
Sun Cluster ハードウェア構成は時とともに変化していくので、サイトに固有なハードウェアの特徴は記録しておきます。クラスタを変更または更新したときに、このハードウェアの記録を参照することで、管理時間を節約できます。また、さまざまなクラスタ構成要素間のケーブルや接続部にラベルを付けておくと、管理作業が簡単になります。
また、元のクラスタ構成とその後の変更を記録しておくと、サン以外のサービスプロパイダがクラスタをサービスする時間を節約できます。
管理コンソールと呼ばれる専用の SPARC ワークステーションを使用して動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) と、グラフィカルユーザーインターフェース(GUI) ツールを管理コンソールにインストールして実行します。CCP の詳細については、「クラスタに遠隔ログインする」を参照してください。Sun Management Center 用の Cluster Control Panel モジュールと SunPlex Manager GUI ツールをインストールする方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークまたはネットワークベースの端末集配信装置 (コンセントレータ) を通じてクラスタノードに遠隔アクセスするために使用します。
SPARC クラスタが Sun Enterprise TM 10000 サーバーで構成されている場合、管理コンソールからシステムサービスプロセッサ (SSP) にログインする必要があります。さらに、netcon(1M) コマンドを使用して接続する必要があります。netcon が Sun Enterprise 10000 ドメインと接続する場合デフォルトは、ネットワークインタフェースを経由する方法を使用します。ネットワークにアクセスできない場合は、-f オプションを使用するか、通常の netcon セッション中に ~* を送信し、netcon を「排他モード」で使用できます。どちらの解決方法でも、ネットワークにアクセスできなくなった場合には、シリアルインタフェースに切り換えることができます。
Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できます。
システム管理者や保守担当者がすみやかに問題を解決できるようになる可能性があります。
ご使用のクラスタを定期的にバックアップしてください。Sun Cluster は HA 環境を備えており、データのミラー化されたコピーを記憶装置に保存していますが、これが定期的なバックアップの代わりになるとは考えないでください。Sun Cluster は複数の障害に耐えることができますが、ユーザーやプログラムのエラー、あるいは、致命的な障害には対処できません。したがって、データ損失に対する保護のために、バックアップ手順を用意しておいてください。
次の情報もバックアップしてください。
すべてのファイルシステムのパーティション
DBMS データサービスを実行している場合は、すべてのデータベースのデータ
すべてのクラスタディスクのディスクパーティション情報
md.tab ファイル (ボリュームマネージャとして Solstice DiskSuite または Solaris Volume Manager を使用している場合)
表 1–2 に、クラスタ管理の開始について示します。
表 1–2 Sun Cluster 3.1 4/04 の管理ツール
作業 |
ツール |
ャjュアル |
---|---|---|
クラスタへの遠隔ログイン |
ccp コマンドを使用して Cluster Control Panel (CCP) を起動します。次に以下のアイコンのうちの 1 つを選択します。cconsole(1M)、crlogin(1M)、または ctelnet(1M)。 | |
対話形式でのクラスタの構成 |
scsetup(1M) ユーティリティを実行します。 | |
Sun Cluster のリリース番号とバージョン情報の表示 |
-p または -pv のいずれかのオプションを指定して scinstall(1M) コマンドを使用します。 | |
インストールされているリソース、リソースグループ、リソースタイプの表示 注 – scrgadm を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティ名に大文字と小文字の区別はありません。 |
scrgadm(1M) -p コマンドを使用します。 | |
クラスタコンポーネントをグラフィカルに監視 |
SunPlex Manager または Sun Management Center 用の Sun Cluster モジュールを使用します ( Sun Management Center は SPARC ベースシステム上の Sun Cluster でのみ利用可)。 |
SunPlex Manager または Sun Management Center 用の Sun Cluster モジュールのオンラインヘルプ |
いくつかのクラスタコンポーネントをグラフィカルに管理 |
SunPlex Manager または Sun Management Center 用の Sun Cluster モジュールを使用します (Sun Management Center は SPARC ベースシステム上の Sun Cluster でのみ利用可)。 |
SunPlex Manager または Sun Management Center 用の Sun Cluster モジュールのオンラインヘルプ |
クラスタコンポーネントの状態確認 |
scstat(1M) コマンドを使用します。 | |
パブリックネットワーク上の IP Network Multipathing グループの状態確認 |
-i オプションを指定して、scstat(1M) コマンドを使用します。 | |
クラスタ構成の表示 |
scconf(1M) -p コマンドを使用します。 | |
広域マウントポイントの確認 |
sccheck(1M) コマンドを使用します。 | |
Sun Cluster のシステムメッセージの参照 |
/var/adm/messages ファイルを確認します。 |
Solaris 9 System Administrator Collection の『Solaris のシステム管理 (上級編)』 |
Solstice DiskSuite の状態の監視 |
metastat コマンドを使用します。 |
Solstice DiskSuite/Solaris Volume Manager のマニュアル |
VERITAS Volume Manager の状態の監視 (Solaris 8 が動作している場合) |
vxstat または vxva コマンドを使用します。 |
VERITAS Volume Manager のマニュアル |
Solaris Volume Manager の状態を監視する (Solaris 9 が動作している場合) |
svmstat コマンドを使用します。 |
Cluster Control Panel (CCP) からは、cconsole(1M)、crlogin(1M)、ctelnet(1M) の各ツールを起動できます。これら 3 種類のツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。詳細については、ccp(1M) と cconsole(1M) のマニュアルページを参照してください。
Cluster Control Panel (CCP) を起動する前に、次の条件を満たしていることを確認します。
SUNWccon パッケージを管理コンソール上にインストールします。
管理コンソールの PATH 変数に、Sun Cluster ツールのディレクトリ /opt/SUNWcluster/bin と /usr/cluster/bin が含まれることを確認します。ツールのディレクトリには、$CLUSTER_HOME 環境変数を設定することで別の場所を指定できます。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。詳しくは、clusters(4) および serialports(4) のマニュアルページを参照してください。
Sun Enterprise E10000 サーバーを使用しているかどうかを確認します。
使用していない場合は、手順 3 に進んでください。
使用している場合は、システムサービスプロセッサ (SSP) にログインし、netcon コマンドを使用して接続してください。接続が完了したなら、Shift + @ キーを入力してコンソールのロックを解除し、書き込み権を取得します。
CCP 起動パッドを起動します。
管理コンソールから次のコマンドを入力します。
# ccp clustername |
CCP 起動パッドが表示されます。
クラスタとの遠隔セッションを開始するには、CCP 起動パッドの該当するアイコン (cconsole、crlogin、ctelnet) をクリックします。
cconsole、crlogin、ctelnet セッションは、コマンド行から開始することもできます。
scsetup(1M) ユーティリティーを使用すると、定足数 (quorum)、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、クラスタの新しいノードのオプションを対話形式で構成できます。
クラスタ内にある任意のノード上でスーパーユーザーになります。
scsetup ユーティリティを実行します。
# scsetup |
メインメニューが表示されます。
構成したい内容に応じてメニューから項目を選択し、画面に表示される指示に従って、作業を完了します。
詳細については、scsetup のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
Sun Cluster のパッチ番号を表示します。
Sun Cluster 更新リリースは、製品のメインパッチ番号に更新バージョンを加えたものです。
% showrev -p |
すべての Sun Cluster パッケージについて、Sun Cluster のリリース番号とバージョン文字列を表示します。
% scinstall -pv |
次に、クラスタのバージョン番号の例を示します。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
この手順は、SunPlex Manager GUI を使用しても実行できます。第 10 章「グラフィカルユーザーインタフェースによる Sun Cluster の管理」を参照してください。詳細については、SunPlex Manager のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
クラスタで構成されているリソースタイプ、リソースグループ、リソースを表示します。
% scrgadm -p |
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
% scrgadm -p RT Name: SUNW.SharedAddress リソースタイプ 説明: HA Shared Address Resource Type リソースタイプ 名前: SUNW.LogicalHostname リソースタイプ 説明: Logical Hostname Resource Type リソースグループ 名前: schost-sa-1 RG Description: リソース 名前: schost-1 リソース 説明: リソースリソースタイプ: SUNW.SharedAddress リソースリソースグループ名: schost-sa-1 リソースグループ 名前: schost-lh-1 リソースグループ 説明: リソース 名前: schost-3 リソース 説明: リソース リソースタイプ: SUNW.LogicalHostname リソース リソースグループ名: schost-lh-1 |
この手順は、SunPlex Manager GUI を使用しても実行できます。詳細については、SunPlex Manager のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
クラスタコンポーネントの状態を確認します。
% scstat -p |
次に、scstat(1M) で戻されるクラスタコンポーネントの状態情報の例を示します。
% scstat -p -- クラスタノード -- ノード名 状態 --------- ------ クラスタノード: phys-schost-1 オンライン クラスタノード: phys-schost-2 オンライン クラスタノード: phys-schost-3 オンライン クラスタノード: phys-schost-4 オンライン ------------------------------------------------------------------ -- クラスタトランスポートパス -- エンドポイント エンドポイント 状態 -------- -------- ------ トランスポートパス: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online トランスポートパス: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- 定足数の要約 -- 可能な定足数投票: 6 必要な定足数投票数: 4 存在する定足数投票数: 6 -- ノードによる定足数の投票数 -- ノード名 存在する 可能な 状態 --------- ------- -------- ------ ノードの投票数: phys-schost-1 1 1 オンライン ノードの投票数: phys-schost-2 1 1 オンライン ... -- デバイスによる定足数の投票数 -- デバイス名 存在する 可能な 状態 ----------- ------- -------- ------ デバイスの投票数: /dev/did/rdsk/d2s2 1 1 オンライン デバイスの投票数: /dev/did/rdsk/d8s2 1 1 オンライン ... -- デバイスグループのサーバー -- デバイスグループ プライマリ セカンダリ ------------ ------- --------- デバイスグループのサーバー: rmt/1 - - デバイスグループのサーバー: rmt/2 - - デバイスグループのサーバー: schost-1 phys-schost-2 phys-schost-1 デバイスグループのサーバー: schost-3 - - -- デバイスグループの状態 -- デバイスグループ 状態 ------------ ------ デバイスグループの状態: rmt/1 オフライン デバイスグループの状態: rmt/2 オフライン デバイスグループの状態: schost-1 オフライン デバイスグループの状態: schost-3 オフライン ------------------------------------------------------------------ -- リソースグループとリソース -- グループ名 リソース ---------- --------- リソース: test-rg test_1 リソース: real-property-rg - リソース: failover-rg - リソース: descript-rg-1 - ... -- リソースグループ -- グループ名 ノード名 状態 ---------- --------- ----- グループ: test-rg phys-schost-1 オフライン グループ: test-rg phys-schost-2 オフライン ... -- リソース -- リソース名 ノード名 状態 状態メッセージ ------------- --------- ----- -------------- リソース: test_1 phys-schost-1 オフライン オフライン リソース: test_1 phys-schost-2 オフライン オフライン ----------------------------------------------------------------- -- IPMP グループ -- ノード名 グループ 状態 アダプタ 状態 --------- ----- ------ ------- ------ IPMP グループ: phys-schost-1 sc_ipmp0 オンライン qfe1 オンライン IPMP グループ: phys-schost-2 sc_ipmp0 オンライン qfe1 オンライン ------------------------------------------------------------------ |
この手順は、SunPlex Manager GUI を使用しても実行できます。詳細については、SunPlex Manager のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
IP ネットワークマルチパスグループの状態を確認するには、scstat(1M) コマンドを使用します。
次に、scstat(1M) で戻されるクラスタコンポーネントの状態情報の例を示します。
% scstat -i ----------------------------------------------------------------- -- IPMP グループ -- ノード名 グループ 状態 アダプタ 状態 --------- ----- ------ ------- ------ IPMP グループ: phys-schost-1 sc_ipmp1 オンライン qfe2 オンライン IPMP グループ: phys-schost-1 sc_ipmp0 オンライン qfe1 オンライン IPMP グループ: phys-schost-2 sc_ipmp1 オンライン qfe2 オンライン IPMP グループ: phys-schost-2 sc_ipmp0 オンライン qfe1 オンライン ------------------------------------------------------------------ |
この手順は、SunPlex Manager GUI を使用しても実行できます。詳細については、SunPlex Manager のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
クラスタ構成を表示します。
% scconf -p |
scconf コマンドを使用してより多くの情報を表示するには、冗長オプションを使用します。詳細についてはscstat(1M) のマニュアルページを参照してください。
次に、クラスタ構成の一覧の例を示します。
% scconf -p クラスタ名: cluster-1 クラスタ ID: 0x3908EE1C クラスタのインストールモード: disabled クラスタのプライベートネット: 172.16.0.0 クラスタのプライベートネットマスク: 255.255.0.0 クラスタの新規ノード認証: unix クラスタの新規ノードリスト: <NULL - Allow any node> クラスタノード: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 クラスタノード名: phys-schost-1 ノード ID: 1 有効なノード: yes ノードのプライベートホスト名: clusternode1-priv ノードの定足数投票数: 1 ノードの保護鍵: 0x3908EE1C00000001 ノードのトランスポートアダプタ: hme1 qfe1 qfe2 ノードのトランスポートアダプタ: hme1 有効なアダプタ: yes アダプタのトランスポートタイプ: dlpi アダプタのプロパティ: device_name=hme アダプタのプロパティ: device_instance=1 アダプタのプロパティ: dlpi_heartbeat_timeout=10000 ... クラスタのトランスポート接続点: hub0 hub1 hub2 クラスタのトランスポート接続点: hub0 有効な接続点: yes 接続点のタイプ: switch 接続点のポート名: 1 2 3 4 ... 接続点のポート名: 1 有効なポート: yes 接続点のポート名: 2 有効なポート: yes ... クラスタのトランスポートケーブル エンドポイント エンドポイント 状態 -------- -------- ----- トランスポートケーブル: phys-schost-1:hme1@0 hub0@1 有効 トランスポートケーブル: phys-schost-1:qfe1@0 hub1@1 有効 トランスポートケーブル: phys-schost-1:qfe2@0 hub2@1 有効 トランスポートケーブル: phys-schost-2:hme1@0 hub0@2 有効 ... 定足数デバイス: d2 d8 定足数デバイス名: d2 定足数デバイス投票権: 1 有効な定足数デバイス: yes 定足数デバイス名: /dev/did/rdsk/d2s2 定足数デバイスのホスト(有効): phys-schost-1 phys-schost-2 定足数デバイスのホスト(無効): ... デバイスグループ名: schost-3 デバイスグループのタイプ: SVM デバイスグループの有効なフェイルバック: no デバイスグループのノードリスト: phys-schost-3, phys-schost-4 ディスクセット名: schost-3 |
sccheck (1M)コマンドはシステムの構成を検証して、クラスタが機能するために必要な正しい基本構成であるかどうかを判断します。エラーがない場合、sccheck は単にシェルプロンプトに戻ります。エラーがあると、sccheck は、指定された出力ディレクトリかデフォルトの出力ディレクトリにレポートを出力します。sccheck を複数のノードに対して実行すると、sccheck は、ノードごとのレポートと複数ノード全体の報告を生成します。
sccheck コマンドは、データ収集のステップと分析のステップからなります。システム構成によっては、データ収集に長い時間がかかることがあります。sccheck に -v1 フラグを指定し、冗長モードで実行することによって、進捗メッセージを表示できます。あるいは、sccheck に - v2 フラグを指定し、高冗長モードで実行することによって、より詳細な進捗メッセージを表示できます (特にデータ収集時)。
sccheck は、デバイス、ボリューム管理コンポーネント、または Sun Cluster 構成を変更するような管理手順を行った後に実行してください。
次の例は、sccheck を冗長モードで phys-schost-1 と phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
次の例は、クラスタ suncluster のノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/sccheck/myReports/ に作成されます。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) コマンドには、/etc/vfstab ファイルでクラスタファイルシステムとその広域マウントポイントの構成エラーを調べるチェックが含まれます。
sccheck は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えた後で実行してください。
次の例は、クラスタ sunclusterのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。Reports are being sent to the output directory /var/cluster/sccheck/myReports/
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |