JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster システム管理     Oracle Solaris Cluster (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster の管理の概要

Oracle Solaris Cluster の管理の概要

ゾーンクラスタに関する作業

Oracle Solaris OS の機能制限

管理ツール

グラフィカルユーザーインタフェース

コマンド行インタフェース

クラスタ管理の準備

Oracle Solaris Cluster ハードウェア構成の記録

管理コンソールの使用

クラスタのバックアップ

クラスタ管理の開始

クラスタに遠隔ログインする

クラスタコンソールに安全に接続する

クラスタ構成ユーティリティーにアクセスする

Oracle Solaris Cluster のパッチ情報を表示する

Oracle Solaris Cluster のリリース情報とバージョン情報を表示する

構成されているリソースタイプ、リソースグループ、リソースを表示する

クラスタコンポーネントの状態を確認する

パブリックネットワークの状態を確認する

クラスタ構成を表示する

基本的なクラスタ構成を検証する

グローバルマウントポイントを確認する

Oracle Solaris Cluster のコマンドログの内容を表示する

2.  Oracle Solaris Cluster と RBAC

3.  クラスタの停止と起動

4.  データ複製のアプローチ

5.  グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理

6.  定足数の管理

7.  クラスタインターコネクトとパブリックネットワークの管理

8.  ノードの追加と削除

9.  クラスタの管理

10.  CPU 使用率の制御の構成

11.  Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ

12.  クラスタのバックアップと復元

13.  グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理

A.  例

索引

クラスタ管理の開始

表 1-2 クラスタ管理の開始点を示します。


注 - グローバルクラスタ投票ノードのみから実行する Oracle Solaris Cluster コマンドは、ゾーンクラスタには使用できません。 各種ゾーンでのコマンドの有効な使用方法については、Oracle Solaris Cluster の該当するマニュアルページを参照してください。


表 1-2 Oracle Solaris Cluster 管理ツール

作業
ツール
参照先
クラスタへの遠隔ログイン
ccp コマンドを使用してクラスタコントロールパネル (CCP) を起動します。次に、cconsole、crlogin、cssh、ctelnet の中からいずれかのアイコンを選択します。
対話形式でのクラスタの構成
clzonecluster(1CL) ユーティリティーか clsetup(1CL) ユーティリティーを起動します。
Oracle Solaris Cluster のリリース番号とバージョン情報の表示
clnode(1CL) コマンドと show-rev -v -node サブコマンドおよびオプションを使用します。
インストールされているリソース、リソースグループ、リソースタイプの表示
リソース情報を表示するには、以下に示すコマンドを使用します。
クラスタコンポーネントをグラフィカルに監視
Oracle Solaris Cluster Manager を使用します。
オンラインヘルプを参照
いくつかのクラスタコンポーネントをグラフィカルに管理
Sun Management Center 用の Oracle Solaris Cluster Manager または Oracle Solaris Cluster モジュールを使用します (Sun Management Center は、SPARC ベースシステム上の Oracle Solaris Cluster でのみ利用可)。
Oracle Solaris Cluster Manager の場合は、オンラインヘルプを参照

Sun Management Center の場合は、Sun Management Center のマニュアルを参照

クラスタコンポーネントの状態を確認します。
cluster(1CL) コマンドを status サブコマンドとともに使用します。
パブリックネットワーク上の IP ネットワークマルチパスグループの状態確認
グローバルクラスタの場合は、-m オプションを指定して、clnode(1CL) status コマンドを使用します。

ゾーンクラスタの場合は、clzonecluster(1CL) show コマンドを使用します。

クラスタ構成を表示します。
グローバルクラスタの場合は、cluster(1CL) コマンドを show サブコマンドとともに使用します。

ゾーンクラスタの場合は、clzonecluster(1CL) コマンドを show サブコマンドとともに使用します。

構成済み NAS デバイスの表示
グローバルクラスタまたはゾーンクラスタの場合は、clzonecluster(1CL) コマンドを show サブコマンドとともに使用します。
グローバルマウントポイントの確認またはクラスタ構成の検証
グローバルクラスタの場合は、cluster(1CL)クラスタ(1CL) コマンドを check サブコマンドとともに使用します。

ゾーンクラスタの場合は、clzonecluster(1CL) verify コマンドを使用します。

Oracle Solaris Cluster のコマンドログの内容の参照
/var/cluster/logs/commandlog ファイルを確認します。
Oracle Solaris Cluster のシステムメッセージの参照
/var/adm/messages ファイルを確認します。
Solaris Volume Manager の状態の監視
metastat コマンドを使用します。

クラスタに遠隔ログインする

Cluster Control Panel (CCP) には、cconsolecrlogincssh、および ctelnet ツール用の起動パッドが用意されています。これらのツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。

cconsolecrlogincsshctelnet セッションは、コマンド行から開始することもできます。

デフォルトでは、cconsole ユーティリティーは telnet を使用してノードコンソールに接続します。 代わりにコンソールへの Secure Shell 接続を確立するには、cconsole ウィンドウの「オプション (Options)」メニューの「SSH の使用 (Use SSH)」チェックボックスをオンにします。または、ccp または cconsole コマンドを実行するときに -s オプションを指定します。

ccp(1M)cconsole(1M) のマニュアルページを参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

クラスタコントロールパネル (CCP) を起動する前に、次の条件を満たしていることを確認します。

  1. Sun Enterprise 10000 サーバー プラットフォームを使用している場合は、システムサービスプロセッサ (SSP) にログインします。
    1. netcon コマンドを使用して接続する。
    2. 接続が完了したなら、Shift + @ キーを入力してコンソールのロックを解除し、書き込み権を取得します。
  2. 管理コンソールから CCP 起動パッドを起動します。
    phys-schost# ccp clustername

    CCP 起動パッドが表示されます。

  3. クラスタとの遠隔セッションを開始するには、CCP 起動パッドの cconsole アイコン、crlogin アイコン、cssh アイコン、または ctelnet アイコンをクリックします。

クラスタコンソールに安全に接続する

クラスタノードのコンソールへの Secure Shell 接続を確立するには、次の手順を実行します。

始める前に

端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。


注 - serialports ファイルで、各コンソールアクセスデバイスへの安全な接続に使用するポート番号を割り当てます。Secure Shell 接続のデフォルトのポート番号は 22 です。


詳細は、clusters(4)serialports(4) のマニュアルページを参照してください。

  1. 管理コンソールでスーパーユーザーになります。
  2. 保護されたモードで cconsole ユーティリティーを起動します。
    # cconsole -s [-l username] [-p ssh-port]
    -s

    Secure Shell 接続を有効にします。

    -l username

    遠隔接続のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。

    -p ssh-port

    使用する Secure Shell ポート番号を指定します。-p オプションが指定されていない場合、デフォルトのポート番号 22 が安全な接続に使用されます。

クラスタ構成ユーティリティーにアクセスする

clsetup ユーティリティーを使用すると、グローバルクラスタの定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、新しいノードのオプションを対話形式で構成できます。clzonecluster ユーティリティーは、同様な構成作業をゾーンクラスタに対して実行します。詳細は、clsetup(1CL)clzonecluster(1CL) のマニュアルページを参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
  2. 構成ユーティリティーを起動します。
    phys-schost# clsetup
    • グローバルクラスタの場合は、clsetup コマンドでユーティリティーを起動します。
      phys-schost# clsetup

      メインメニューが表示されます。

    • ゾーンクラスタの場合は、clzonecluster コマンドでユーティリティーを起動します。この例のゾーンクラスタは sczone です。
      phys-schost# clzonecluster configure sczone

      ユーティリティーで実行可能な操作は、次のオプションで確認できます。

      clzc:sczone> ? 
  3. 使用する構成をメニューから選択します。画面に表示される指示に従って、作業を完了します。詳細は、『Oracle Solaris Cluster ソフトウェアのインストール』の「ゾーンクラスタの設定」に記述されている手順を参照してください。

参照

詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。

Oracle Solaris Cluster のパッチ情報を表示する

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

例 1-1 Oracle Solaris Cluster のパッチ情報の表示

次に、パッチ 110648-05 についての情報を表示した例を示します。

phys-schost# showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

Oracle Solaris Cluster のリリース情報とバージョン情報を表示する

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

例 1-2 Oracle Solaris Cluster のリリース情報およびバージョン情報の表示

次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。

phys-schost# clnode show-rev
3.2

phys-schost#% clnode show-rev -v
Oracle Solaris Cluster 3.3 for Solaris 10 sparc
SUNWscu:       3.3.0,REV=2010.06.14.03.44
SUNWsccomu:    3.3.0,REV=2010.06.14.03.44
SUNWsczr:      3.3.0,REV=2010.06.14.03.44
SUNWsccomzu:   3.3.0,REV=2010.06.14.03.44
SUNWsczu:      3.3.0,REV=2010.06.14.03.44
SUNWscsckr:    3.3.0,REV=2010.06.14.03.44
SUNWscscku:    3.3.0,REV=2010.06.14.03.44
SUNWscr:       3.3.0,REV=2010.06.14.03.44
SUNWscrtlh:    3.3.0,REV=2010.06.14.03.44
SUNWscnmr:     3.3.0,REV=2010.06.14.03.44
SUNWscnmu:     3.3.0,REV=2010.06.14.03.44
SUNWscdev:     3.3.0,REV=2010.06.14.03.44
SUNWscgds:     3.3.0,REV=2010.06.14.03.44
SUNWscsmf:     3.3.0,REV=2010.06.14.03.44
SUNWscman:     3.3.0,REV=2010.05.21.18.40
SUNWscsal:     3.3.0,REV=2010.06.14.03.44
SUNWscsam:     3.3.0,REV=2010.06.14.03.44
SUNWscvm:      3.3.0,REV=2010.06.14.03.44
SUNWmdmr:      3.3.0,REV=2010.06.14.03.44
SUNWmdmu:      3.3.0,REV=2010.06.14.03.44
SUNWscmasa:    3.3.0,REV=2010.06.14.03.44
SUNWscmasar:   3.3.0,REV=2010.06.14.03.44
SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44
SUNWscmasazu:  3.3.0,REV=2010.06.14.03.44
SUNWscmasau:   3.3.0,REV=2010.06.14.03.44
SUNWscmautil:  3.3.0,REV=2010.06.14.03.44
SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44
SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44
SUNWscspmr:    3.3.0,REV=2010.06.14.03.44
SUNWscspmu:    3.3.0,REV=2010.06.14.03.44
SUNWscderby:   3.3.0,REV=2010.06.14.03.44
SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44
SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12
SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12
SUNWscgreptc:  3.2.3,REV=2009.10.23.12.12
SUNWscghb:     3.2.3,REV=2009.10.23.12.12
SUNWscgctl:    3.2.3,REV=2009.10.23.12.12
SUNWscims:     6.0,REV=2003.10.29
SUNWscics:     6.0,REV=2003.11.14
SUNWscapc:     3.2.0,REV=2006.12.06.18.32
SUNWscdns:     3.2.0,REV=2006.12.06.18.32
SUNWschadb:    3.2.0,REV=2006.12.06.18.32
SUNWschtt:     3.2.0,REV=2006.12.06.18.32
SUNWscs1as:    3.2.0,REV=2006.12.06.18.32
SUNWsckrb5:    3.2.0,REV=2006.12.06.18.32
SUNWscnfs:     3.2.0,REV=2006.12.06.18.32
SUNWscor:      3.2.0,REV=2006.12.06.18.32
SUNWscs1mq:    3.2.0,REV=2006.12.06.18.32
SUNWscsap:     3.2.0,REV=2006.12.06.18.32
SUNWsclc:      3.2.0,REV=2006.12.06.18.32
SUNWscsapdb:   3.2.0,REV=2006.12.06.18.32
SUNWscsapenq:  3.2.0,REV=2006.12.06.18.32
SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32
SUNWscsapscs:  3.2.0,REV=2006.12.06.18.32
SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32
SUNWscsbl:     3.2.0,REV=2006.12.06.18.32
SUNWscsyb:     3.2.0,REV=2006.12.06.18.32
SUNWscwls:     3.2.0,REV=2006.12.06.18.32
SUNWsc9ias:    3.2.0,REV=2006.12.06.18.32
SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32
SUNWsczone:    3.2.0,REV=2006.12.06.18.32
SUNWscdhc:     3.2.0,REV=2006.12.06.18.32
SUNWscebs:     3.2.0,REV=2006.12.06.18.32
SUNWscmqi:     3.2.0,REV=2006.12.06.18.32
SUNWscmqs:     3.2.0,REV=2006.12.06.18.32
SUNWscmys:     3.2.0,REV=2006.12.06.18.32
SUNWscsge:     3.2.0,REV=2006.12.06.18.32
SUNWscsaa:     3.2.0,REV=2006.12.06.18.32
SUNWscsag:     3.2.0,REV=2006.12.06.18.32
SUNWscsmb:     3.2.0,REV=2006.12.06.18.32
SUNWscsps:     3.2.0,REV=2006.12.06.18.32
SUNWsctomcat:  3.2.0,REV=2006.12.06.18.32

構成されているリソースタイプ、リソースグループ、リソースを表示する

この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細は、第 13 章グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理または Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-3 構成されているリソースタイプ、リソースグループ、リソースの表示

次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on Oracle Solaris Cluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False

=== Resource Groups and Resources ===

Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group qfs-rg ---

  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

クラスタコンポーネントの状態を確認する

この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。 詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。


注 - ゾーンクラスタの状態は、cluster status コマンドでも表示できます。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-4 クラスタコンポーネントの状態確認

次に、cluster(1CL) status で返されるクラスタコンポーネントの状態情報の例を示します。

phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

パブリックネットワークの状態を確認する

この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

IP ネットワークのマルチパスグループのステータスを確認するには、clnode(1CL) コマンドと status サブコマンドとともに使用します。

始める前に

スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-5 パブリックネットワークの状態を調べる

次に、clnode status コマンドで戻されるクラスタコンポーネントの状態情報の例を示します。

% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    qfe1       Online
phys-schost-2     test-rg       Online    qfe1       Online 

クラスタ構成を表示する

この手順は Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-6 グローバルクラスタの構成を表示する

次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。

phys-schost# cluster show
=== Cluster ===                                

Cluster Name:                                   cluster-1
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  global_fencing:                                  Unknown
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False

  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False

  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False

  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          netapp
    User ID:                                       root

  Nas Device:                                   nas2
    Type:                                          netapp
    User ID:                                       llai

例 1-7 ゾーンクラスタの構成を表示する

次に、ゾーンクラスタ構成のプロパティの例を示します。

% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto

  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsHome
    special:                                       CrsHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsData
    special:                                       CrsData
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraHome
    special:                                       OraHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraData
    special:                                       OraData
    raw:
    type:                                          samfs
    options:                                       []


  --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

clnasdevice show サブコマンドまたは Oracle Solaris Cluster Manager を使用して、グローバルまたはゾーンクラスタ用に設定された NAS デバイスを表示することもできます。 詳細は、clnasdevice(1CL)のマニュアルページを参照してください。

基本的なクラスタ構成を検証する

cluster(1CL) コマンドは、check サブコマンドを使用して、グローバルクラスタが正しく機能するために必要な基本構成を検証します。チェックにエラーがない場合、cluster check はシェルプロンプトに戻ります。チェックにエラーがある場合、cluster check が指定したディレクトリかデフォルトの出力ディレクトリにレポートを生成します。cluster check を複数のノードに対して実行すると、cluster check は、ノードごとのレポートと複数ノードチェックのレポートを生成します。cluster list-checks コマンドを使用して、使用可能なすべてのクラスタチェックの一覧を表示させることもできます。

Oracle Solaris Cluster 3.3 5/11 リリース以降は、cluster check コマンドに新しいタイプの検査が導入され機能強化が施されています。コマンドを使用することにより、ユーザーの対話型操作なしに実行される基本検査だけでなく、対話型検査、および機能検査も実行することができます。基本検査は、-k キーワードが指定されていない場合に実行されます。

cluster check コマンドを詳細モードで -v フラグを使用して実行して、進捗情報を表示することができます。


注 - cluster check は、デバイス、ボリューム管理コンポーネント、または Oracle Solaris Cluster 構成を変更するような管理手順を行なったあとに実行してください。


clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。

  1. グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
    phys-schost# su
  2. 最新版の検査プログラムがあるかどうかを確認します。

    「My Oracle Support (オラクル サポート)」の「Patches & Updates (購入および更新)」タブに移動します。「Advanced Search (高度な検索)」を使用して「Product (製品)」として「Solaris Cluster」を選択し、「Description (説明)」フィールドで「Check (チェック)」を指定して、検査プログラムが収録されている Oracle Solaris Cluster パッチの場所を指定します。クラスタ上にまだインストールしていないパッチがあれば適用します。

  3. 基本検証検査を実行します。
    # cluster check -v -o outputdir
    -v

    詳細モード

    -o outputdir

    出力を outputdir サブディレクトリにリダイレクトします。

    このコマンドによって、利用可能なすべての基本検査が実行されます。クラスタ機能はいっさい影響を受けません。

  4. 対話型検証検査を実行します。
    # cluster check -v -k interactive -o outputdir
    -k interactive

    対話型検証検査の実行を指定します。

    このコマンドによって、利用可能なすべての対話型検査が実行され、必要なクラスタ情報の入力を促すプロンプトが表示されます。クラスタ機能はいっさい影響を受けません。

  5. 機能検証検査を実行します。
    1. 利用可能なすべての機能検査が非冗長モードで一覧表示されます。
      # cluster list-checks -k functional
    2. 本稼働環境でクラスタの利用またはサービスを中断するアクションが、どの機能検査によって実行されるかを確認します。

      たとえば、機能検査によってはノードのパニック、あるいは別のノードへのフェイルオーバーが発生する場合があります。

      # cluster list-checks -v -C checkID
      -C checkID

      特定の検査を指定します。

    3. 実行の対象となる機能検査によってクラスタの動作が中断される場合は、そのクラスタがまだ本稼働段階に達していないものであることを確認してください。
    4. 機能検査を実行します。
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      機能検証検査の実行を指定します。

      検査のプロンプトに応答し、検査の実行を確認し、実行すべき情報またはアクションについても確認します。

    5. 実行する必要のある残りの各機能検査について、手順 c および手順 d を繰り返します。

      注 - 記録管理のために、実行する検査ごとに、他と重複しない outputdir サブディレクトリ名を指定してください。outputdir の名前を再利用してしまうと、再利用された outputdir サブディレクトリの既存の内容が、新しい検査の出力で上書されます。


  6. ゾーンクラスタの構成を検証して、ゾーンクラスタがインストール可能かどうかを確認します。
    phys-schost# clzonecluster verify zoneclustername
  7. 今後の診断に活用できるように、クラスタ構成を記録しておきます。

    『Oracle Solaris Cluster ソフトウェアのインストール』の「クラスタ構成の診断データを記録する」を参照してください。

例 1-8 グローバルクラスタ構成の基本検証 (エラーがない場合)

次の例は、cluster check を詳細モードで phys-schost-1 および phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。

phys-schost# cluster check -v -h phys-schost-1,  
     phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 

例 1-9 対話型検証検査の一覧表示

次の例は、クラスタに対して実行できるすべての対話型検証検査の一覧です。出力例は可能な検査のサンプルであり、実際の利用可能な検査は各構成に応じて異なります。

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

例 1-10 機能検証検査の実行

次の例では、最初に機能検査の詳細が表示されています。次に、検査 F6968101 の一覧表示に関する詳細説明が示されています。この例を見ると、検査によってクラスタサービスが中断されることがわかります。このクラスタは稼働しなくなっています。この場合、機能検査を実行すると、funct.test.F6968101.12Jan2011 サブディレクトリにログの詳細が出力されます。出力例は可能な検査のサンプルであり、実際の利用可能な検査は各構成に応じて異なります。

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

例 1-11 グローバルクラスタ構成の検証 (エラーがある場合)

次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/logs/cluster_check/<timestamp> に作成されます。

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o
     /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

グローバルマウントポイントを確認する

cluster(1CL) コマンドには、クラスタファイルシステムとそのグローバルマウントポイントに構成エラーがないか、/etc/vfstab ファイルを調べるチェックが含まれています。


注 - cluster check は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えたあとで実行してください。


  1. グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。

    グローバルクラスタのノードから、次の手順のステップをすべて実行します。

    % su
  2. グローバルクラスタ構成を検証します。
    phys-schost# cluster check

例 1-12 グローバルマウントポイントの確認

次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートは、出力ディレクトリ、/var/cluster/logs/cluster_check/<timestamp>/ に送信されています。

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as an Oracle Solaris Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node.  
Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as 
Oracle Solaris Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Oracle representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x.
...
#

Oracle Solaris Cluster のコマンドログの内容を表示する

/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Oracle Solaris Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタをセットアップしたときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。

クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。

次のような、クラスタの現在の状態の設定や変更を行うコマンドは、このファイルに記録されます。

commandlog ファイル内のレコードには次の要素を含めることができます。

commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。

Oracle Solaris Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。

例 1-13 Oracle Solaris Cluster のコマンドログの内容の表示

次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。

more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0