Sun Cluster のシステム管理 (Solaris OS 版)

第 1 章 Sun Cluster の管理の概要

この章では、以下のクラスタ管理に関する情報と、Sun Cluster 管理ツールの使用手順について説明します。

Sun Cluster の管理の概要

Sun Cluster の高可用性環境によって、エンドユーザーに対して重要なアプリケーションの可用性が保証されます。システム管理者の業務は、Sun Cluster の安定した動作を保証することです。

管理作業を始める前に、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』『Sun Cluster の概念 (Solaris OS 版)』に記載されている計画情報をよく理解しておいてください。Sun Cluster の管理は、次の作業ごとに各マニュアルにまとめられています。

ほとんどの場合、Sun Cluster の管理作業はクラスタの稼動中に実行できます。クラスタからノードを取り外す必要がある場合、あるいはノードを停止する必要がある場合でも、残りのノードがクラスタを稼働をしている間に作業を行うことができます。Solaris 10 では、明記していないかぎり、Sun Cluster の管理作業は大域ゾーンで行うべきです。クラスタ全体の停止を必要とする手順の場合は、システムへの影響がもっとも少ない稼働時間外に停止時間を予定してください。クラスタまたはクラスタノードを停止する予定があるときは、あらかじめユーザーに通知しておいてください。

Solaris オペレーティングシステム (Solaris OS) の機能制限

Solaris 10 Management Facility (SMF) 管理インタフェースを使用して以下の Sun Cluster サービスを有効または無効にしないようにしてください。

Sun Cluster サービス 

FMRI 

pnm

svc:/system/cluster/pnm:default

cl_event

svc:/system/cluster/cl_event:default

cl_eventlog

svc:/system/cluster/cl_eventlog:default

rpc_pmf

svc:/system/cluster/rpc_pmf:default

rpc_fed

svc:/system/cluster/rpc_fed:default

rgm

svc:/system/cluster/rgm:default

scdpm

svc:/system/cluster/scdpm:default

cl_ccra

svc:/system/cluster/cl_ccra:default

scsymon_srv

svc:/system/cluster/scsymon_srv:default

spm

svc:/system/cluster/spm:default

cl_svc_cluster_milestone

svc:/system/cluster/cl_svc_cluster_milestone:default

cl_svc_enable

svc:/system/cluster/cl_svc_enable:default

network-multipathing

svc:/system/cluster/network-multipathing

管理ツール

Sun Cluster で管理作業を行うときは、グラフィカルユーザーインタフェース (GUI) またはコマンド行を使用できます。以降の節では、GUI とコマンド行の管理ツールの概要を示します。

グラフィカルユーザーインタフェース

Sun Cluster は、GUI ツールをサポートしています。これらのツールを使えば、クラスタに対してさまざまな管理作業を行うことができます。GUI ツールには、Sun Cluster Manager と Sun Management Center があります (Sun Management Center は SPARC ベースのシステムで Sun Cluster を使用する場合に利用可)。Sun Cluster Manager と Sun Management Center の構成についての詳細と手順は、第 12 章「グラフィカルユーザーインタフェースによる Sun Cluster の管理」を参照してください。Sun Cluster Manager の使い方については、各 GUI のオンラインヘルプを参照してください。

コマンド行インタフェース

Sun Cluster のほとんどの管理作業は、clsetup(1CL) ユーティリティーを使用して対話形式で実行できます。可能なかぎり、本書の管理手順は clsetup ユーティリティーを使用します。

clsetup ユーティリティーを使用すると、「メイン」メニュー内の以下の項目を管理できます。

Sun Cluster の管理に使用するその他のコマンドを、次のリストに示します。詳細は、マニュアルページを参照してください。

ccp(1M)

クラスタへの遠隔コンソールアクセスを開始します。

if_mpadm(1M)

IP ネットワークマルチパスグループ内のあるアダプタから別のアダプタに IP アドレスを切り換えます。

claccess(1CL)

ノードを追加するために Sun Cluster アクセスポリシーの管理します。

cldevice(1CL)

Sun Cluster デバイスを管理します。

cldevicegroup(1CL)

Sun Cluster デバイスグループを管理します。

clinterconnect(1CL)

Sun Cluster インターコネクトを管理します。

clnasdevice(1CL)

Sun Cluster の NAS デバイスへのアクセスを管理します。

clnode(1CL)

Sun Cluster ノードを管理します。

clquorum(1CL)

Sun Cluster 定足数を管理します。

clreslogicalhostname(1CL)

論理ホスト名のために Sun Cluster リソースを管理します。

clresource(1CL)

Sun Cluster データサービスのためにリソースを管理します。

clresourcegroup(1CL)

Sun Cluster データサービスのためにリソースを管理します。

clresourcetype(1CL)

Sun Cluster データサービスのためにリソースを管理します。

clressharedaddress(1CL)

共有アドレスのために Sun Cluster リソースを管理します。

clsetup(1CL)

Sun Cluster を対話的に構成します。

clsnmphost(1CL)

Sun Cluster SNMP ホストを管理します。

clsnmpmib(1CL)

Sun Cluster SNMP MIB を管理します。

clsnmpuser(1CL)

Sun Cluster SNMP ユーザーを管理します。

cltelemetryattribute(1CL)

システムリソース監視を構成します。

cluster(1CL)

Sun Cluster のグローバル構成とグローバルステータスを管理します。

clvxvm

VERITAS Volume Manager (VxVM) を Sun Cluster ノード上で初期化し、状況に応じてルートディスクをカプセル化します。

さらに、コマンドを使用して Sun Cluster のボリューム管理ソフトウェアを管理することもできます。使用するコマンドは、クラスタで使用しているボリュームマネージャー (Solstice DiskSuiteTM、VERITAS Volume Manager、または Solaris ボリュームマネージャーTM) によって変わります。

クラスタ管理の準備

この節では、クラスタ管理の準備を整える上で必要な作業について説明します。

Sun Cluster ハードウェア構成の記録

Sun Cluster ハードウェア構成は時とともに変化していくので、サイトに固有なハードウェアの特徴は記録しておきます。クラスタを変更または更新するときには、このハードウェアの記録を参照することで労力を節約できます。また、さまざまなクラスタ構成要素間のケーブルや接続部にラベルを付けておくと、管理作業が簡単になります。

また、元のクラスタ構成とその後の変更を記録しておくと、サン以外のサービスプロパイダがクラスタをサービスする時間を節約できます。

管理コンソールの使用

「管理コンソール」として専用のワークステーション、または管理ネットワークを介して接続されたワークステーションを使用すると動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) と、グラフィカルユーザーインターフェース(GUI) ツールを管理コンソールにインストールして実行します。CCP の詳細は、「リモートからクラスタにログインする」を参照してください。Sun Management Center 用のクラスタコントロールパネルモジュールと Sun Cluster Manager GUI ツールをインストールする方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。

管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークまたはネットワークベースの端末集配信装置 (コンセントレータ) を通じてクラスタノードに遠隔アクセスするために使用します。

SPARC クラスタが Sun Enterprise TM 10000 サーバーで構成されている場合、管理コンソールからシステムサービスプロセッサ (SSP) にログインする必要があります。netcon コマンドを使用して接続します。netcon が Sun Enterprise 10000 ドメインと接続する場合デフォルトは、ネットワークインタフェースを経由する方法を使用します。ネットワークにアクセスできない場合は、-f オプションを使用するか、通常の netcon セッション中に ~* を送信し、netcon を「排他モード」で使用できます。どちらの解決方法でも、ネットワークにアクセスできなくなった場合には、シリアルインタフェースに切り換えることができます。

Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。

クラスタのバックアップ

ご使用のクラスタを定期的にバックアップしてください。Sun Cluster は高可用性環境を備えており、データのミラー化されたコピーを記憶装置に保存していますが、これが定期的なバックアップの代わりになるとは考えないでください。Sun Cluster は複数の障害に耐えることができますが、ユーザーやプログラムのエラー、あるいは、致命的な障害には対処できません。したがって、データ損失に対する保護のために、バックアップ手順を用意しておいてください。

次の情報もバックアップしてください。

クラスタ管理の開始

表 1–1 に、クラスタ管理の開始について示します。

表 1–1 Sun Cluster 3.2 管理ツール

作業 

ツール 

参照先 

クラスタへの遠隔ログイン 

ccp コマンドを使用してクラスタコントロールパネル (CCP) を起動します。次に以下のアイコンのうちの 1 つを選択します。cconsolecrlogincssh、または ctelnet

「リモートからクラスタにログインする」

「クラスタコンソールに安全に接続する」

対話形式でのクラスタの構成 

clsetup(1CL) ユーティリティーを起動します。

clsetup ユーティリティーにアクセスする」

Sun Cluster のリリース番号とバージョン情報の表示 

clnode(1CL) コマンドを、show-rev --v -node サブコマンドおよびオプションを指定して使用してください。

「Sun Cluster のリリース情報とバージョン情報を表示する」

インストールされているリソース、リソースグループ、リソースタイプの表示 

リソース情報を表示するには、以下に示すコマンドを使用します。 

  • clresource(1CL)

  • clresourcegroup(1CL)

  • clresourcetype(1CL)

「構成されているリソースタイプ、リソースグループ、リソースを表示する」

クラスタコンポーネントをグラフィカルに監視 

Sun Cluster Manager を使用します。 

オンラインヘルプを参照してください。 

いくつかのクラスタコンポーネントをグラフィカルに管理 

Sun Cluster Manager または Sun Management Center 用の Sun Cluster モジュールを使用します (Sun Management Center は SPARC ベースシステム上の Sun Cluster でのみ利用可)。 

Sun Cluster Manager については、オンラインヘルプを参照してください。 

Sun Management Center については、Sun Management Center のマニュアルを参照してください。 

クラスタコンポーネントの状態を確認します。 

status サブコマンドとともに cluster(1CL) コマンドを使用します。

「クラスタコンポーネントの状態を確認する」

パブリックネットワーク上の IP ネットワークマルチパスグループの状態確認 

-m オプションを付けて clnode(1CL) status コマンドを使用します。

「パブリックネットワークの状態を確認する」

クラスタ構成を表示します。 

show サブコマンドとともに cluster(1CL) コマンドを使用します。

「クラスタ構成を表示する」

大域マウントポイントの確認 

sccheck(1M) コマンドを使用します。

「基本的なクラスタ構成を検証する」

Sun Cluster のコマンドログの内容の参照 

/var/cluster/logs/commandlog ファイルを確認します。

「Sun Cluster のコマンドログの内容を表示する」

Sun Cluster のシステムメッセージの参照 

/var/adm/messages ファイルを確認します。

『Solaris のシステム管理 (上級編)』「システムメッセージの表示」

Solstice DiskSuite の状態の監視 

metastat コマンドを使用します。

Solaris ボリュームマネージャー のマニュアル 

Solaris ボリュームマネージャーの状態を監視する (Solaris 9 または Solaris 10 が動作している場合) 

metastat コマンドを使用します。

『Solaris ボリュームマネージャの管理』

Procedureリモートからクラスタにログインする

Cluster Control Panel (CCP) には、cconsolecrlogincssh、および ctelnet ツール用の起動パッドが用意されています。これらのツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。

cconsolecrlogincsshctelnet セッションは、コマンド行から開始することもできます。

デフォルトでは、cconsole ユーティリティーはノードコンソールに対して telnet 接続を使用します。代わりに、コンソールへのセキュアシェル接続を確立するには、cconsole ウィンドウで「オプション」メニューの「SSH の使用」チェックボックスを有効にします。あるいは、ccp または cconsole コマンドを発行するときに、-s オプションを指定します。

詳細は、ccp(1M)cconsole(1M) のマニュアルページを参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

始める前に

クラスタコントロールパネル (CCP) を起動する前に、次の条件を満たしていることを確認します。

  1. Sun Enterprise 10000 サーバー プラットフォームを使用している場合は、System Service Processor (SSP) にログインします。

    1. netcon コマンドを使用して接続します。

    2. 接続が完了したなら、Shift + @ キーを入力してコンソールのロックを解除し、書き込み権を取得します。

  2. 管理コンソールから、CCP 起動パッドを起動します。


    # ccp clustername
    

    CCP 起動パッドが表示されます。

  3. クラスタとの遠隔セッションを開始するには、CCP 起動パッドの該当するアイコン (cconsole、crlogin、cssh、ctelnet) をクリックします。

Procedureクラスタコンソールに安全に接続する

クラスタノードへのセキュアシェル接続を確立するには、この手順を実行します。

始める前に

端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。


注 –

serialports ファイルではポート番号を使用し、セキュリティー保護された接続を各コンソールアクセスデバイスに使用するようにします。セキュアシェル接続のデフォルトのポート番号は 22 です。


詳細は、clusters(4) および serialports(4) のマニュアルページを参照してください。

  1. 管理コンソールでスーパーユーザーになります。

  2. cconsole ユーティリティーをセキュリティー保護されたモードで起動します。


    # cconsole -s [-l username] [-p ssh-port]
    
    -s

    セキュアシェル接続を有効にします。

    -l username

    リモート接続用のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。

    -p ssh-port

    使用するセキュアシェルポート番号を指定します。-p オプションが指定されていない場合、デフォルトポート番号 22 がセキュリティー保護された接続に使用されます。

Procedureclsetup ユーティリティーにアクセスする

clsetup(1CL) ユーティリティーを使用すると、定足数 (quorum)、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、クラスタの新しいノードのオプションを対話形式で構成できます。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

  2. clsetup ユーティリティーを起動します。


    # clsetup
    

    メインメニューが表示されます。

  3. 使用する構成をメニューから選択します。画面に表示される指示に従って、作業を完了します。

参照

詳細については、clsetup のオンラインヘルプを参照してください。

ProcedureSun Cluster のパッチ情報を表示する

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. Sun Cluster のパッチ情報の表示


    % showrev -p
    

    Sun Cluster 更新リリースは、製品のメインパッチ番号に更新バージョンを加えたものです。


例 1–1 Sun Cluster のパッチ情報の表示

次に、パッチ 110648-05 についての情報を表示した例を示します。


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

ProcedureSun Cluster のリリース情報とバージョン情報を表示する

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. Sun Cluster のリリースとバージョン情報を表示する


    % clnode show-rev -v -node
    

    このコマンドは、すべての Sun Cluster パッケージについて Sun Cluster のリリース番号とバージョン文字列を表示します。


例 1–2 Sun Cluster のリリース情報およびバージョン情報の表示

次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。


% clnode show-rev
3.2

% clnode show-rev -v
Sun Cluster 3.2 for Solaris 9 sparc

SUNWscr:       3.2.0,REV=2006.02.17.18.11
SUNWscu:       3.2.0,REV=2006.02.17.18.11
SUNWsczu:      3.2.0,REV=2006.02.17.18.11
SUNWscsck:     3.2.0,REV=2006.02.17.18.11
SUNWscnm:      3.2.0,REV=2006.02.17.18.11
SUNWscdev:     3.2.0,REV=2006.02.17.18.11
SUNWscgds:     3.2.0,REV=2006.02.17.18.11
SUNWscman:     3.2.0,REV=2005.10.18.08.42
SUNWscsal:     3.2.0,REV=2006.02.17.18.11
SUNWscsam:     3.2.0,REV=2006.02.17.18.11
SUNWscvm:      3.2.0,REV=2006.02.17.18.11
SUNWmdm:       3.2.0,REV=2006.02.17.18.11
SUNWscmasa:    3.2.0,REV=2006.02.17.18.11
SUNWscmautil:  3.2.0,REV=2006.02.17.18.11
SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11
SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11
SUNWscva:      3.2.0,REV=2006.02.17.18.11
SUNWscspm:     3.2.0,REV=2006.02.17.18.11
SUNWscspmu:    3.2.0,REV=2006.02.17.18.11
SUNWscspmr:    3.2.0,REV=2006.02.17.18.11
SUNWscderby:   3.2.0,REV=2006.02.17.18.11
SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11
SUNWscrsm:     3.2.0,REV=2006.02.17.18.11
SUNWcsc:       3.2.0,REV=2006.02.21.10.16
SUNWcscspm:    3.2.0,REV=2006.02.21.10.16
SUNWcscspmu:   3.2.0,REV=2006.02.21.10.16
SUNWdsc:       3.2.0,REV=2006.02.21.10.09
SUNWdscspm:    3.2.0,REV=2006.02.21.10.09
SUNWdscspmu:   3.2.0,REV=2006.02.21.10.09
SUNWesc:       3.2.0,REV=2006.02.21.10.11
SUNWescspm:    3.2.0,REV=2006.02.21.10.11
SUNWescspmu:   3.2.0,REV=2006.02.21.10.11
SUNWfsc:       3.2.0,REV=2006.02.21.10.06
SUNWfscspm:    3.2.0,REV=2006.02.21.10.06
SUNWfscspmu:   3.2.0,REV=2006.02.21.10.06
SUNWhsc:       3.2.0,REV=2006.02.21.10.20
SUNWhscspm:    3.2.0,REV=2006.02.21.10.20
SUNWhscspmu:   3.2.0,REV=2006.02.21.10.20
SUNWjsc:       3.2.0,REV=2006.02.21.10.22
SUNWjscman:    3.2.0,REV=2006.02.21.10.22
SUNWjscspm:    3.2.0,REV=2006.02.21.10.22
SUNWjscspmu:   3.2.0,REV=2006.02.21.10.22
SUNWksc:       3.2.0,REV=2006.02.21.10.14
SUNWkscspm:    3.2.0,REV=2006.02.21.10.14
SUNWkscspmu:   3.2.0,REV=2006.02.21.10.14

Procedure構成されているリソースタイプ、リソースグループ、リソースを表示する

この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細は、第 12 章「グラフィカルユーザーインタフェースによる Sun Cluster の管理」または Sun Cluster Manager のオンラインヘルプを参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

始める前に

スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

  1. クラスタで構成されているリソースタイプ、リソースグループ、リソースを表示します。


    % cluster show -t resource,resourcetype,resourcegroup
    

    個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。

    • resource

    • resource group

    • resourcetype


例 1–3 構成されているリソースタイプ、リソースグループ、リソースの表示

次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。


% cluster show resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on SunCluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False

=== Resource Groups and Resources ===

Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group qfs-rg ---

  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

Procedureクラスタコンポーネントの状態を確認する

この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

始める前に

スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

  1. クラスタコンポーネントの状態を確認します。


    % cluster status
    

例 1–4 クラスタコンポーネントの状態確認

次に、クラスタ cluster(1CL) status で戻されるクラスタコンポーネントの状態情報の例を示します。


% cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok 

Procedureパブリックネットワークの状態を確認する

この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

IP ネットワークマルチパスグループの状態を確認するには、clnode(1CL) コマンドを status サブコマンドを指定して使用します。

始める前に

スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

  1. クラスタコンポーネントの状態を確認します。


    % clnode status -m
    

例 1–5 パブリックネットワークの状態を調べる

次に、clnode status コマンドで戻されるクラスタコンポーネントの状態情報の例を示します。


% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    qfe1       Online
phys-schost-2     test-rg       Online    qfe1       Online 

Procedureクラスタ構成を表示する

この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

始める前に

スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

  1. クラスタ構成を表示します。


    % cluster show

    cluster コマンドを使用してより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。


例 1–6 クラスタ構成を表示する

次に、クラスタ構成の一覧の例を示します。


% cluster show

=== Cluster ===                                

Cluster Name:                                   cluster-1
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  global_fencing:                                  Unknown
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False

  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Sun Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False

  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Sun Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False

  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          netapp
    User ID:                                       root

  Nas Device:                                   nas2
    Type:                                          netapp
    User ID:                                       llai

Procedure基本的なクラスタ構成を検証する

sccheck(1M) コマンドはシステムの構成を検証して、クラスタが機能するために必要な正しい基本構成であるかどうかを判断します。エラーがない場合、sccheck は単にシェルプロンプトに戻ります。エラーがあると、sccheck は、指定された出力ディレクトリかデフォルトの出力ディレクトリにレポートを出力します。sccheck を複数のノードに対して実行すると、sccheck は、ノードごとのレポートと複数ノード全体の報告を生成します。

sccheck コマンドは、データ収集のステップと分析のステップからなります。システム構成によっては、データ収集に長い時間がかかることがあります。sccheck-v1 フラグを指定し、冗長モードで実行することによって、進捗メッセージを表示できます。あるいは、sccheck-v2 フラグを指定し、高冗長モードで実行することによって、より詳細な進捗メッセージを表示できます (特にデータ収集時)。


注 –

sccheck は、デバイス、ボリューム管理コンポーネント、または Sun Cluster 構成を変更するような管理手順を行った後に実行してください。


  1. クラスタ内にある任意のノード上でスーパーユーザーになります。


    % su
    
  2. クラスタ構成を検証します。


     # sccheck
    

例 1–7 クラスタ構成の検証 (エラーがない場合)

次の例は、sccheck を冗長モードで phys-schost-1 phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。


# sccheck -v1 -h phys-schost-1,phys-schost-2

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 


例 1–8 クラスタ構成の検証 (エラーがある場合)

次の例は、クラスタ suncluster のノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/sccheck/myReports/ に作成されます。


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Procedureグローバルマウントポイントを確認する

sccheck(1M) コマンドには、/etc/vfstab ファイルでクラスタファイルシステムとその広域マウントポイントの構成エラーを調べるチェックが含まれます。


注 –

sccheck は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えた後で実行してください。


  1. クラスタ内にある任意のノード上でスーパーユーザーになります。


    % su
    
  2. クラスタ構成を検証します。


     # sccheck
    

例 1–9 グローバルマウントポイントの確認

次の例は、クラスタ sunclusterのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートが出力ディレクトリ /var/cluster/sccheck/myReports/ に送信されます。


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#

ProcedureSun Cluster のコマンドログの内容を表示する

/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Sun Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタをセットアップしたときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。

クラスタの構成や現在の状態を表示するようなコマンドは、このファイルにロギングされません。

次のような、クラスタの現在の状態の設定や変更を行うコマンドは、このファイルに記録されます。

commandlog ファイル内のレコードには次の要素を含めることができます。

commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。

Sun Cluster は任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。

    一度に 1 つの画面で、現在の週の commandlog ファイルの内容を表示します。


    # more /var/cluster/logs/commandlog
    

例 1–10 Sun Cluster のコマンドログの内容の表示

次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。


more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0