Sun Cluster のシステム管理 (Solaris OS 版)

第 1 章 Sun Cluster の管理の概要

この章では、クラスタ管理の準備に関する情報と、Sun Cluster 管理ツールの使用手順について説明します。

Sun Cluster の管理の概要

Sun Cluster の高可用性環境によって、エンドユーザーに対して重要なアプリケーションの可用性が保証されます。システム管理者の業務は、Sun Cluster の安定した動作を保証することです。

管理作業を始める前に、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』『Sun Cluster の概念 (Solaris OS 版)』に記載されている計画情報をよく理解しておいてください。Sun Cluster の管理は、次の作業ごとに各マニュアルにまとめられています。

ほとんどの場合、Sun Cluster の管理作業はクラスタの稼動中に実行できるため、ノードが 1 つの場合を除き、クラスタの稼動に影響はありません。クラスタ全体の停止を必要とする手順の場合は、システムへの影響がもっとも少ない勤務時間外に停止時間を予定してください。クラスタまたはクラスタノードを停止する予定があるときは、あらかじめユーザーに通知しておいてください。

Solaris OS の機能制限

以下の Solaris OS 機能は、Sun Cluster 構成ではサポートされません。

Sun Cluster サービス 

FMRI 

pnm 

svc:/system/cluster/pnm:デフォルト 

cl_event 

svc:/system/cluster/cl_event:デフォルト 

cl_eventlog 

svc:/system/cluster/cl_eventlog:デフォルト 

rpc_pmf 

svc:/system/cluster/rpc_pmf:デフォルト 

rpc_fed 

svc:/system/cluster/rpc_fed:デフォルト 

rgm 

svc:/system/cluster/rgm:デフォルト 

scdpm 

svc:/system/cluster/scdpm:デフォルト 

cl_ccra 

svc:/system/cluster/cl_ccra:デフォルト 

scsymon_srv 

svc:/system/cluster/scsymon_srv:デフォルト 

spm 

svc:/system/cluster/spm:デフォルト 

cl_svc_cluster_milestone 

svc:/system/cluster/cl_svc_cluster_milestone:デフォルト 

cl_svc_enable 

svc:/system/cluster/cl_svc_enable:デフォルト 

network-multipathing 

svc:/system/cluster/network-multipathing 

管理ツール

Sun Cluster で管理作業を行うときは、グラフィカルユーザーインタフェース (GUI) またはコマンド行を使用できます。以降の節では、GUI とコマンド行の管理ツールの概要を示します。

グラフィカルユーザーインタフェース

Sun Cluster は、グラフィカルユーザーインタフェース (GUI) ツールをサポートしています。これらのツールを使えば、クラスタに対してさまざまな管理作業を行うことができます。GUI ツールには、SunPlexTM Manager と Sun Management Center があります (Sun Management Center は SPARC ベースのシステムで Sun Cluster を使用する場合に利用可)。SunPlex Manager と Sun Management Center の詳細と構成手順については、第 10 章「グラフィカルユーザーインタフェースによる Sun Cluster の管理」を参照してください。各ツールに固有の使い方については、各 GUI のオンラインヘルプを参照してください。

コマンド行インタフェース

Sun Cluster のほとんどの管理作業は、scsetup(1M) ユーティリティーを使用して対話形式で実行できます。本書での管理手順の説明には、可能な限り scsetup を使用しています。

scsetup ユーティリティーを使用すると、「メイン」メニュー内の以下の項目を管理できます。

scsetup ユーティリティーを使用すると、「リソースグループ」メニュー内の以下の項目を管理できます。

表 1-1 に、Sun Cluster を管理するために使用するその他のコマンドのリストを示します。詳細は、マニュアルページを参照してください。

表 1–1 Sun Cluster のコマンド行インタフェースのコマンド

コマンド 

説明 

ccp(1M)

クラスタへの遠隔コンソールアクセスを開始します。 

if_mpadm(1M)

IP マルチパスグループ内のあるアダプタから別のアダプタに IP アドレスを切り換える場合に使用します。 

sccheck(1M)

Sun Cluster 構成を確認および検証して、クラスタの最も基本的な構成が機能していることを保証します。 

scconf(1M)

Sun Cluster の構成を更新します。-p オプションを指定すると、クラスタの構成情報を一覧表示できます。

scdidadm(1M)

デバイス ID の構成および管理用ユーティリティーを実行します。 

scgdevs(1M)

広域デバイス名前空間管理スクリプトを実行します。 

scinstall(1M)

Sun Cluster ソフトウェアのインストールと構成を行います。対話形式でも、対話形式以外でも実行できます。-p オプションを指定すると、Sun Cluster ソフトウェアのリリース情報とパッケージのバージョン情報が表示されます。

scrgadm(1M)

リソースタイプの登録、リソースグループの作成、リソースグループ内のリソースの起動を管理します。 -p オプションを指定すると、インストールされているリソース、リソースグループ、およびリソースタイプに関する情報を表示できます。


注 –

scrgadm を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティー名に大文字と小文字の区別はありません。


scsetup(1M)

対話形式のクラスタ構成ユーティリティーを実行します。このユーティリティーは、scconf コマンドとそのオプションを生成します。

scshutdown(1M)

クラスタ全体を停止します。 

scstat(1M)

クラスタの状態のスナップショットを提供します。 

scswitch(1M)

リソースグループとディスクデバイスグループのノードのマスターや状態を変更します。 

さらに、コマンドを使用して Sun Cluster のボリューム管理ソフトウェアを管理することもできます。使用するコマンドは、クラスタで使用しているボリュームマネージャー (Solstice DiskSuiteTM、VERITAS Volume Manager、または Solaris Volume ManagerTM) によって変わります。

クラスタ管理の準備

この節では、クラスタ管理の準備を整える上で必要な作業について説明します。

Sun Cluster ハードウェア構成の記録

Sun Cluster ハードウェア構成は時とともに変化していくので、サイトに固有なハードウェアの特徴は記録しておきます。クラスタを変更または更新したときに、このハードウェアの記録を参照することで、管理時間を節約できます。また、さまざまなクラスタ構成要素間のケーブルや接続部にラベルを付けておくと、管理作業が簡単になります。

また、元のクラスタ構成とその後の変更を記録しておくと、サン以外のサービスプロパイダがクラスタをサービスする時間を節約できます。

管理コンソールの使用

管理コンソールと呼ばれる専用の SPARC ワークステーションを使用して動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) と、グラフィカルユーザーインターフェース(GUI) ツールを管理コンソールにインストールして実行します。CCP の詳細については、「クラスタに遠隔ログインする」を参照してください。Sun Management Center 用の Cluster Control Panel モジュールと SunPlex Manager GUI ツールをインストールする方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。

管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークまたはネットワークベースの端末集配信装置 (コンセントレータ) を通じてクラスタノードに遠隔アクセスするために使用します。

SPARC クラスタが Sun Enterprise TM 10000 サーバーで構成されている場合、管理コンソールからシステムサービスプロセッサ (SSP) にログインする必要があります。さらに、netcon.1M コマンドを使用して接続する必要があります。netcon が Sun Enterprise 10000 ドメインと接続する場合デフォルトは、ネットワークインタフェースを経由する方法を使用します。ネットワークにアクセスできない場合は、-f オプションを使用するか、通常の netcon セッション中に ~* を送信し、netcon を「排他モード」で使用できます。どちらの解決方法でも、ネットワークにアクセスできなくなった場合には、シリアルインタフェースに切り換えることができます。

Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。

クラスタのバックアップ

ご使用のクラスタを定期的にバックアップしてください。Sun Cluster は HA 環境を備えており、データのミラー化されたコピーを記憶装置に保存していますが、これが定期的なバックアップの代わりになるとは考えないでください。Sun Cluster は複数の障害に耐えることができますが、ユーザーやプログラムのエラー、あるいは、致命的な障害には対処できません。したがって、データ損失に対する保護のために、バックアップ手順を用意しておいてください。

次の情報もバックアップしてください。

クラスタ管理の開始

表 1–2 に、クラスタ管理の開始について示します。

表 1–2 Sun Cluster 3.1 4/04 の管理ツール

タスク 

ツール 

マニュアル 

クラスタへの遠隔ログイン 

ccp コマンドを使用して Cluster Control Panel (CCP) を起動します。次に以下のアイコンのうちの 1 つを選択します。cconsole(1M)crlogin(1M)、またはctelnet(1M)

「クラスタに遠隔ログインする」

対話形式でのクラスタの構成 

scsetup(1M) ユーティリティーを起動します。

scsetup ユーティリティーにアクセスする」

Sun Cluster のリリース番号とバージョン情報の表示 

-p または -pv のいずれかのオプションを指定して scinstall(1M) コマンドを使用します。

「Sun Cluster のリリース情報とバージョン情報を表示する」

インストールされているリソース、リソースグループ、リソースタイプの表示 


注 –

scrgadm を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティー名に大文字と小文字の区別はありません。


scrgadm(1M) -p コマンドを使用します。

「構成されているリソースタイプ、リソースグループ、リソースを表示する」

クラスタコンポーネントをグラフィカルに監視 

SunPlex Manager を使用します。 

SunPlex Manager のオンラインヘルプ 

いくつかのクラスタコンポーネントをグラフィカルに管理 

SunPlex Manager または Sun Management Center 用の Sun Cluster モジュールを使用します (Sun Management Center は SPARC ベースシステム上の Sun Cluster でのみ利用可)。 

SunPlex Manager または Sun Management Center 用の Sun Cluster モジュールのオンラインヘルプ 

クラスタコンポーネントの状態確認 

scstat(1M) コマンドを使用します。

「クラスタコンポーネントの状態を確認する」

パブリックネットワーク上の IP Network Multipathing グループの状態確認 

-i オプションを指定して、scstat(1M) コマンドを使用します。

「パブリックネットワークの状態を確認する」

クラスタ構成の表示 

scconf(1M) -p コマンドを使用します。

「クラスタ構成を表示する」

広域マウントポイントの確認 

sccheck(1M) コマンドを使用します。

「基本的なクラスタ構成を検証する」

Sun Cluster のシステムメッセージの参照 

/var/adm/messages ファイルを確認します。

『Solaris のシステム管理 (上級編)』「システムメッセージの表示」

Solstice DiskSuite の状態の監視 

metastat コマンドを使用します。

Solstice DiskSuite/Solaris Volume Manager のマニュアル 

VERITAS Volume Manager の状態の監視 (Solaris 8 が動作している場合) 

vxstat または vxva コマンドを使用します。

VERITAS Volume Manager のマニュアル 

Solaris Volume Manager の状態を監視する (Solaris 9 が動作している場合) 

svmstat コマンドを使用します。

『Solaris ボリュームマネージャの管理』

Procedureクラスタに遠隔ログインする

Cluster Control Panel (CCP) からは、cconsole(1M)crlogin(1M)ctelnet(1M) の各ツールを起動できます。これら 3 種類のツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。詳細については、ccp(1M)cconsole(1M) のマニュアルページを参照してください。

手順
  1. Cluster Control Panel (CCP) を起動する前に、次の条件を満たしていることを確認します。

    • SUNWccon パッケージを管理コンソール上にインストールします。

    • 管理コンソールの PATH 変数に、Sun Cluster ツールのディレクトリ /opt/SUNWcluster/bin/usr/cluster/bin が含まれることを確認します。ツールのディレクトリには、$CLUSTER_HOME 環境変数を設定することで別の場所を指定できます。

    • 端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。詳しくは、clusters(4) および serialports(4) のマニュアルページを参照してください。

  2. Sun Enterprise E10000 サーバーを使用しているかどうかを確認します。

    • 使用していない場合は、手順 3 に進んでください。

    • 使用している場合は、システムサービスプロセッサ (SSP) にログインし、netcon コマンドを使用して接続してください。接続が完了したなら、Shift + @ キーを入力してコンソールのロックを解除し、書き込み権を取得します。

  3. CCP 起動パッドを起動します。

    管理コンソールから次のコマンドを入力します。


    # ccp clustername
    

    CCP 起動パッドが表示されます。

  4. クラスタとの遠隔セッションを開始するには、CCP 起動パッドの該当するアイコン (cconsole、crlogin、ctelnet) をクリックします。

参照

cconsolecrloginctelnet セッションは、コマンド行から開始することもできます。

Procedurescsetup ユーティリティーにアクセスする

scsetup(1M) ユーティリティーを使用すると、定足数 (quorum)、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、クラスタの新しいノードのオプションを対話形式で構成できます。

手順
  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

  2. scsetup ユーティリティーを実行します。


    # scsetup
    

    メインメニューが表示されます。

  3. 構成したい内容に応じてメニューから項目を選択し、画面に表示される指示に従って、作業を完了します。

    詳細については、scsetup のオンラインヘルプを参照してください。

ProcedureSun Cluster のパッチ情報を表示する

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

手順

    次のコマンドを入力します。


    % showrev -p
    

    Sun Cluster 更新リリースは、製品のメインパッチ番号に更新バージョンを加えたものです。


例 1–1 Sun Cluster のパッチ情報の表示

次に、パッチ 110648-05 についての情報を表示した例を示します。


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

ProcedureSun Cluster のリリース情報とバージョン情報を表示する

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

手順

    次のコマンドを入力します。


    % scinstall -pv
    

    このコマンドは、すべての Sun Cluster パッケージについて Sun Cluster のリリース番号とバージョン文字列を表示します。


例 1–2 Sun Cluster のリリース情報およびバージョン情報の表示

次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。


% scinstall -pv
SunCluster 3.1
SUNWscr:       3.1.0,REV=2000.10.01.01.00
SUNWscdev:     3.1.0,REV=2000.10.01.01.00
SUNWscu:       3.1.0,REV=2000.10.01.01.00
SUNWscman:     3.1.0,REV=2000.10.01.01.00
SUNWscsal:     3.1.0,REV=2000.10.01.01.00
SUNWscsam:     3.1.0,REV=2000.10.01.01.00
SUNWscvm:      3.1.0,REV=2000.10.01.01.00
SUNWmdm:       4.2.1,REV=2000.08.08.10.01

Procedure構成されているリソースタイプ、リソースグループ、リソースを表示する

この手順は、SunPlex Manager GUI を使用しても実行できます。第 10 章「グラフィカルユーザーインタフェースによる Sun Cluster の管理」を参照してください。詳細については、SunPlex Manager のオンラインヘルプを参照してください。

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

手順

    クラスタで構成されているリソースタイプ、リソースグループ、リソースを表示します。


    % scrgadm -p
    

例 1–3 構成されているリソースタイプ、リソースグループ、リソースの表示

次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。


% scrgadm -p
RT Name: SUNW.SharedAddress
  リソースタイプ 説明: HA Shared Address Resource Type 
リソースタイプ 名前: SUNW.LogicalHostname
  リソースタイプ 説明: Logical Hostname Resource Type 
リソースグループ 名前: schost-sa-1 
  RG Description:  
    リソース 名前: schost-1
      リソース 説明: 
      リソースリソースタイプ: SUNW.SharedAddress
      リソースリソースグループ名: schost-sa-1
リソースグループ 名前: schost-lh-1 
  リソースグループ 説明:  
    リソース 名前: schost-3
      リソース 説明: 
      リソース リソースタイプ: SUNW.LogicalHostname
      リソース リソースグループ名: schost-lh-1

Procedureクラスタコンポーネントの状態を確認する

この手順は、SunPlex Manager GUI を使用しても実行できます。詳細については、SunPlex Manager のオンラインヘルプを参照してください。

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

手順

    クラスタコンポーネントの状態を確認します。


    % scstat -p
    

例 1–4 クラスタコンポーネントの状態確認

次に、scstat(1M) で戻されるクラスタコンポーネントの状態情報の例を示します。


% scstat -p
-- クラスタノード --
 
                    ノード名           状態
                    ---------           ------
  クラスタノード:     phys-schost-1      オンライン
  クラスタノード:     phys-schost-2      オンライン
  クラスタノード:     phys-schost-3      オンライン
  クラスタノード:     phys-schost-4      オンライン
 
------------------------------------------------------------------
 
-- クラスタトランスポートパス --
 
                    エンドポイント            エンドポイント            状態
                    --------            --------            ------
  トランスポートパス:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  トランスポートパス:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- 定足数の要約 --
 
  可能な定足数投票数:      6
  必要な定足数投票数:        4
  存在する定足数投票数:       6
 
-- ノードによる定足数の投票数 --
 
                    ノード名           現在の数 可能な数 状態
                    ---------           ------- -------- ------
  ノードの投票数:       phys-schost-1      1        1       オンライン
  ノードの投票数:       phys-schost-2      1        1       オンライン
...
 
-- デバイスによる定足数の投票数 --
 
                    デバイス名         存在する数 可能な数 状態 
                    -----------         ------- -------- ------ 
  デバイスの投票数:     /dev/did/rdsk/d2s2  1        1       オンライン 
  デバイスの投票数:     /dev/did/rdsk/d8s2  1        1       オンライン 
...
 
-- デバイスグループのサーバー --
 
                         デバイスグループ        プライマリ             セカンダリ
                         ------------        -------             ---------
  デバイスグループのサーバー:  rmt/1               -                   -
  デバイスグループのサーバー:  rmt/2               -                   -
  デバイスグループのサーバー:  schost-1           phys-schost-2      phys-schost-1
  デバイスグループのサーバー:  schost-3           -                   -
 
-- デバイスグループの状態 --
 
                              デバイスグループ        状態              
                              ------------        ------              
  デバイスグループの状態:        rmt/1               オフライン
  デバイスグループの状態:        rmt/2               オフライン
  デバイスグループの状態:        schost-1            オンライン
  デバイスグループの状態:        schost-3            オフライン
 
------------------------------------------------------------------
 
-- リソースグループとリソース --
 
            グループ名          リソース
            ----------          ---------
 リソース: test-rg             test_1
 リソース: real-property-rg    -
 リソース: failover-rg         -
 リソース: descript-rg-1       -
...
 
-- リソースグループ --
 
            グループ名          ノード名           状態
            ----------          ---------           -----
     グループ: test-rg             phys-schost-1      オフライン
     グループ: test-rg             phys-schost-2      オフライン
...
 
-- リソース --
 
            リソース名       ノード名           状態     状態メッセージ
            -------------       ---------           -----     --------------
  リソース: test_1              phys-schost-1      オフライン   オフライン
  リソース: test_1              phys-schost-2      オフライン   オフライン
 
-----------------------------------------------------------------
 
-- IPMP グループ --
 
              ノード名         グループ   	 状態         アダプタ   状態
              ---------         -----   	 ------         -------   ------
  IPMP グループ: phys-schost-1     sc_ipmp0   オンライン         qfe1      オンライン

  IPMP グループ: phys-schost-2     sc_ipmp0   オンライン         qfe1      オンライン

------------------------------------------------------------------
 

Procedureパブリックネットワークの状態を確認する

この手順は、SunPlex Manager GUI を使用しても実行できます。詳細については、SunPlex Manager のオンラインヘルプを参照してください。

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

IP ネットワークマルチパスグループの状態を確認するには、scstat(1M) コマンドを使用します。

手順

    クラスタコンポーネントの状態を確認します。


    % scstat -i
    

例 1–5 パブリックネットワークの状態を調べる

次に、scstat(1M) で戻されるクラスタコンポーネントの状態情報の例を示します。


% scstat -i
-----------------------------------------------------------------
 
-- IPMP グループ --
 
              ノード名         グループ   	 状態         アダプタ   状態
              ---------         -----   	 ------         -------   ------
  IPMP グループ: phys-schost-1     sc_ipmp1 	 オンライン         qfe2      オンライン

  IPMP グループ: phys-schost-1     sc_ipmp0 	 オンライン         qfe1      オンライン

  IPMP グループ: phys-schost-2     sc_ipmp1 	 オンライン         qfe2      オンライン

  IPMP グループ: phys-schost-2     sc_ipmp0 	 オンライン         qfe1      オンライン

------------------------------------------------------------------
 

Procedureクラスタ構成を表示する

この手順は、SunPlex Manager GUI を使用しても実行できます。詳細については、SunPlex Manager のオンラインヘルプを参照してください。

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

手順

    クラスタ構成を表示します。


    % scconf -p
    

    scconf コマンドを使用してより多くの情報を表示するには、冗長オプションを使用します。詳細についてはscstat(1M) のマニュアルページを参照してください。


例 1–6 クラスタ構成を表示する

次に、クラスタ構成の一覧の例を示します。


% scconf -p
クラスタ名:                       cluster-1
クラスタ ID:                      0x3908EE1C
クラスタのインストールモード:        disabled
クラスタのプライベートネット:        172.16.0.0
クラスタのプライベートネットマスク:   255.255.0.0
クラスタの新規ノード認証:           unix
クラスタの新規ノードリスト:          <NULL - Allow any node>
クラスタノード:                    phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
クラスタノード名:                                 phys-schost-1
  ノード ID:                                    1
  有効なノード:                                  yes
  ノードのプライベートホスト名:                     clusternode1-priv
  ノードの定足数投票数:                           1
  ノードの保護鍵:                                0x3908EE1C00000001
  ノードのトランスポートアダプタ:                   hme1 qfe1 qfe2
 
ノードのトランスポートアダプタ:                   hme1
    有効なアダプタ:                               yes
    アダプタのトランスポートタイプ:                  dlpi
    アダプタのプロパティー:                          device_name=hme
    アダプタのプロパティー:                          device_instance=1
    アダプタのプロパティー:                          dlpi_heartbeat_timeout=10000
...
クラスタのトランスポート接続点:                      hub0 hub1 hub2
 
クラスタのトランスポート接続点:                      hub0
  有効な接続点:                                   yes
  接続点のタイプ:                                 switch
  接続点のポート名:                               1 2 3 4
...
接続点のポート名:                               1
    有効なポート:                                 yes
 
接続点のポート名:                               2
    有効なポート:                                 yes
...
クラスタのトランスポートケーブル
                      エンドポイント         エンドポイント    状態
                       --------             --------      -----
  トランスポートケーブル:  phys-schost-1:hme1@0 hub0@1        有効
  トランスポートケーブル:  phys-schost-1:qfe1@0 hub1@1        有効
  トランスポートケーブル:  phys-schost-1:qfe2@0 hub2@1        有効
  トランスポートケーブル:  phys-schost-2:hme1@0 hub0@2        有効
...
定足数デバイス:                                   d2 d8
 
定足数デバイス名:                                 d2
  定足数デバイス投票権:                            1
  有効な定足数デバイス:                            yes
  定足数デバイス名:                               /dev/did/rdsk/d2s2
  定足数デバイスのホスト(有効):                     phys-schost-1
 phys-schost-2
  定足数デバイスのホスト(無効): 
...
デバイスグループ名:                                schost-3
  デバイスグループのタイプ:                         SVM
  デバイスグループの有効なフェイルバック:             no
  デバイスグループのノードリスト:                    phys-schost-3, phys-schost-4
  ディスクセット名:                                schost-3

Procedure基本的なクラスタ構成を検証する

sccheck(1M) コマンドはシステムの構成を検証して、クラスタが機能するために必要な正しい基本構成であるかどうかを判断します。エラーがない場合、sccheck は単にシェルプロンプトに戻ります。エラーがあると、sccheck は、指定された出力ディレクトリかデフォルトの出力ディレクトリにレポートを出力します。sccheck を複数のノードに対して実行すると、sccheck は、ノードごとのレポートと複数ノード全体の報告を生成します。

sccheck コマンドは、データ収集のステップと分析のステップからなります。システム構成によっては、データ収集に長い時間がかかることがあります。sccheck-v1 フラグを指定し、冗長モードで実行することによって、進捗メッセージを表示できます。あるいは、sccheck- v2 フラグを指定し、高冗長モードで実行することによって、より詳細な進捗メッセージを表示できます (特にデータ収集時)。


注 –

sccheck は、デバイス、ボリューム管理コンポーネント、または Sun Cluster 構成を変更するような管理手順を行った後に実行してください。


手順
  1. クラスタ内にある任意のノード上でスーパーユーザーになります。


    % su
    
  2. クラスタ構成を検証します。


     # sccheck
    

例 1–7 クラスタ構成の検証 (エラーがない場合)

次の例は、sccheck を冗長モードで phys-schost-1 phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。


# sccheck -v1 -h phys-schost-1,phys-schost-2

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 


例 1–8 クラスタ構成の検証 (エラーがある場合)

次の例は、クラスタ suncluster のノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/sccheck/myReports/ に作成されます。


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Procedure広域マウントポイントを確認する

sccheck(1M) コマンドには、/etc/vfstab ファイルでクラスタファイルシステムとその広域マウントポイントの構成エラーを調べるチェックが含まれます。


注 –

sccheck は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えた後で実行してください。


手順
  1. クラスタ内にある任意のノード上でスーパーユーザーになります。


    % su
    
  2. クラスタ構成を検証します。


     # sccheck
    

例 1–9 広域マウントポイントの確認

次の例は、クラスタ sunclusterのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートが出力ディレクトリ /var/cluster/sccheck/myReports/ に送信されます。


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#