| ナビゲーションリンクをスキップ | |
| 印刷ビューの終了 | |
|   | Oracle Solaris Cluster システム管理 Oracle Solaris Cluster 3.3 3/13 (日本語) | 
1. Oracle Solaris Cluster の管理の概要
Oracle Solaris Cluster ハードウェア構成の記録
Oracle Solaris Cluster のパッチ情報を表示する方法
Oracle Solaris Cluster のリリース情報とバージョン情報を表示する方法
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
7. クラスタインターコネクトとパブリックネットワークの管理
11. Oracle Solaris Cluster ソフトウェアおよびファームウェアのパッチ適用
表 1-2 クラスタ管理の開始点を示します。
注 - グローバルクラスタの投票ノードからのみ実行する Oracle Solaris Cluster コマンドは、ゾーンクラスタには有効ではありません。各種ゾーンでのコマンドの有効な使用方法については、Oracle Solaris Cluster の該当するマニュアルページを参照してください。
表 1-2 Oracle Solaris Cluster 管理ツール
| 
 | 
クラスタコントロールパネル (CCP) は、 cconsole、 crlogin、cssh、および ctelnet ツールの起動パッドです。すべてのツールが、一連の指定されたノードへの複数ウィンドウ接続を開始します。複数ウィンドウ接続は、指定されたノードごとのホストウィンドウと、共通ウィンドウから成ります。共通ウィンドウへの入力は、それぞれのホストウィンドウに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。
コマンド行から cconsole、crlogin、cssh、または ctelnet セッションを開始することもできます。
デフォルトでは、cconsole ユーティリティーはノードコンソールに対して telnet 接続を使用します。その代わりに、コンソールに対して Secure Shell 接続を確立するには、cconsole ウィンドウの「オプション」メニューの「SSH の使用」チェックボックスにチェックマークを付けます。または、ccp または cconsole コマンドを発行するときに -s オプションを指定します。
詳細については、ccp(1M) および cconsole(1M) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
CCP を起動する前に次の前提条件が満たされていることを確認します。
管理コンソールに SUNWccon パッケージをインストールします。
管理コンソールの PATH 変数に Oracle Solaris Cluster ツールのディレクトリである /opt/SUNWcluster/bin と /usr/cluster/bin が含まれていることを確認します。$CLUSTER_HOME 環境変数を設定すると、ツールディレクトリ用に代替の場所を指定できます。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、および nsswitch.conf ファイルを構成します。これらのファイルは、/etc ファイル、あるいは NIS または NIS+ データベースのいずれかでもかまいません。詳細については、clusters(4) および serialports(4) のマニュアルページを参照してください。
phys-schost# ccp clustername
CCP 起動パッドが表示されます。
この手順を実行し、クラスタノードのコンソールへの Secure Shell 接続を確立します。
始める前に
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、および nsswitch.conf ファイルを構成します。これらのファイルは、/etc ファイル、あるいは NIS または NIS+ データベースのいずれかでもかまいません。
注 - serialports ファイルで、各コンソールアクセスデバイスへのセキュア接続に使用するポート番号を割り当てます。Secure Shell 接続のデフォルトのポート番号は 22 です。
詳細については、clusters(4) および serialports(4) のマニュアルページを参照してください。
# cconsole -s [-l username] [-p ssh-port]
Secure Shell 接続を有効にします。
リモート接続のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。
使用する Secure Shell ポート番号を指定します。-p オプションが指定されていない場合は、デフォルトのポート番号 22 がセキュア接続に使用されます。
clsetup ユーティリティーでは、ゾーンクラスタを対話形式で作成し、定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、およびグローバルクラスタの新しいノードオプションを構成できます。clzonecluster ユーティリティーは、同様な構成タスクをゾーンクラスタに対して実行します。詳細は、clsetup(1CL) と clzonecluster(1CL) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clsetup
phys-schost# clsetup
メインメニューが表示されます。
phys-schost# clzonecluster configure sczone
ユーティリティーで実行可能な操作は、次のオプションで確認できます。
clzc:sczone> ?
対話型の clsetup ユーティリティーを使用して、ゾーンクラスタを作成したり、ファイルシステムまたはストレージデバイスをクラスタスコープに追加することもできます。その他のすべてのゾーンクラスタ構成タスクは、clzonecluster configure コマンドで実行されます。clsetup ユーティリティーの使用手順については、『Oracle Solaris Cluster ソフトウェアのインストール』を参照してください。
参照
詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# showrev -p
Oracle Solaris Cluster アップデートリリースは、メイン製品のパッチ番号とアップデートバージョンによって識別されます。
例 1-1 Oracle Solaris Cluster のパッチ情報の表示
次の例は、パッチ 110648-05 に関する情報を示しています。
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages:
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clnode show-rev -v -node
このコマンドは、すべての Oracle Solaris Cluster パッケージについて Oracle Solaris Cluster のリリース番号とバージョン文字列を表示します。
例 1-2 Oracle Solaris Cluster のリリース情報およびバージョン情報の表示
次の例は、クラスタのリリース情報とパッケージのバージョン情報を示しています。
phys-schost# clnode show-rev 3.3 phys-schost# clnode show-rev -v Oracle Solaris Cluster 3.3 for Solaris 10 sparc SUNWcccon: 3.3.0,REV=2010.06.14.03.44 SUNWccon: 3.3.0,REV=2010.06.14.03.44 SUNWcsc: 3.3.0,REV=2010.06.14.03.44 SUNWcscspmu 3.3.0,REV=2010.06.14.03.44 SUNWcscssv: 3.3.0,REV=2010.06.14.03.44 SUNWeccon: 3.3.0,REV=2010.06.14.03.44 SUNWesc: 3.3.0,REV=2010.06.14.03.44 SUNWescspmu: 3.3.0,REV=2010.06.14.03.44 SUNWescssv: 3.3.0,REV=2010.06.14.03.44 SUNWfccon: 3.3.0,REV=2010.06.14.03.44 SUNWfsc: 3.3.0,REV=2010.06.14.03.44 SUNFfscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWfscssv: 3.3.0,REV=2010.06.14.03.44 SUNWjccon: 3.3.0,REV=2010.06.14.03.44 SUNWjcommonS: 3.3.0,REV=2010.06.14.03.44 SUNWjsc: 3.3.0,REV=2010.06.14.03.44 SUNWjscman: 3.3.0,REV=2010.06.14.03.44 SUNWjscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWjscssv: 3.3.0,REV=2010.06.14.03.44 SUNWkccon: 3.3.0,REV=2010.06.14.03.44 SUNWksc: 3.3.0,REV=2010.06.14.03.44 SUNWkscspmu 3.3.0,REV=2010.06.14.03.44 SUNWkscssv: 3.3.0,REV=2010.06.14.03.44 SUNWscu: 3.3.0,REV=2010.06.14.03.44 SUNWsccomu: 3.3.0,REV=2010.06.14.03.44 SUNWsczr: 3.3.0,REV=2010.06.14.03.44 SUNWsccomzu: 3.3.0,REV=2010.06.14.03.44 SUNWsczu: 3.3.0,REV=2010.06.14.03.44 SUNWscsckr: 3.3.0,REV=2010.06.14.03.44 SUNWscscku: 3.3.0,REV=2010.06.14.03.44 SUNWscr: 3.3.0,REV=2010.06.14.03.44 SUNWscrdt: 3.3.0,REV=2010.06.14.03.44 SUNWscrif: 3.3.0,REV=2010.06.14.03.44 SUNWscrtlh: 3.3.0,REV=2010.06.14.03.44 SUNWscnmr: 3.3.0,REV=2010.06.14.03.44 SUNWscnmu: 3.3.0,REV=2010.06.14.03.44 SUNWscdev: 3.3.0,REV=2010.06.14.03.44 SUNWscgds: 3.3.0,REV=2010.06.14.03.44 SUNWscsmf: 3.3.0,REV=2010.06.14.03.44 SUNWscman: 3.3.0,REV=2010.05.21.18.40 SUNWscsal: 3.3.0,REV=2010.06.14.03.44 SUNWscsam: 3.3.0,REV=2010.06.14.03.44 SUNWscvm: 3.3.0,REV=2010.06.14.03.44 SUNWmdmr: 3.3.0,REV=2010.06.14.03.44 SUNWmdmu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasa: 3.3.0,REV=2010.06.14.03.44 SUNWscmasar: 3.3.0,REV=2010.06.14.03.44 SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44 SUNWscmasazu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasau: 3.3.0,REV=2010.06.14.03.44 SUNWscmautil: 3.3.0,REV=2010.06.14.03.44 SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44 SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44 SUNWjfreechartS: 3.3.0,REV=2010.06.14.03.44 ORCLscPeopleSoft:3.3.0,REV=2010.06.14.03.44 ORCLscobiee: 3.3.0,REV=2010.06.14.03.44 ORCLscoep: 3.3.0,REV=2010.06.14.03.44 ORCLscohs: 3.3.0,REV=2010.06.14.03.44 ORCLscopmn: 3.3.0,REV=2010.06.14.03.44 ORCLscsapnetw: 3.3.0,REV=2010.06.14.03.44 SUNWcvm: 3.3.0,REV=2010.06.14.03.44 SUNWcvmr: 3.3.0,REV=2010.06.14.03.44 SUNWiimsc: 3.3.0,REV=2010.06.14.03.44 SUNWscspmr: 3.3.0,REV=2010.06.14.03.44 SUNWscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWscderby: 3.3.0,REV=2010.06.14.03.44 SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12 SUNWscgrepavsu: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepodg: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepodgu: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepsbpu: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12 SUNWscgrepsrdfu: 3.3.0,REV=2010.06.14.03.44 SUNWscgreptc: 3.2.3,REV=2009.10.23.12.12 SUNWscgreptcu: 3.3.0,REV=2010.06.14.03.44 SUNWscgspm: 3.3.0,REV=2010.06.14.03.44 SUNWscghb: 3.2.3,REV=2009.10.23.12.12 SUNWscghbr: 3.3.0,REV=2010.06.14.03.44 SUNWscgman: 3.3.0,REV=2010.06.14.03.44 ORCLscgrepzfssa: 3.3.0,REV=2010.06.14.03.44 SUNWscgctl: 3.2.3,REV=2009.10.23.12.12 SUNWscgctlr: 3.3.0,REV=2010.06.14.03.44 SUNWscims: 6.0,REV=2003.10.29 SUNWscics: 6.0,REV=2003.11.14 SUNWscids: 3.3.0,REV=2010.06.14.03.44 SUNWscapc: 3.2.0,REV=2006.12.06.18.32 SUNWscdns: 3.2.0,REV=2006.12.06.18.32 SUNWschadb: 3.2.0,REV=2006.12.06.18.32 SUNWschtt: 3.2.0,REV=2006.12.06.18.32 SUNWscs1as: 3.2.0,REV=2006.12.06.18.32 SUNWsckrb5: 3.2.0,REV=2006.12.06.18.32 SUNWscnfs: 3.2.0,REV=2006.12.06.18.32 SUNWscor: 3.2.0,REV=2006.12.06.18.32 SUNWscpax: 3.3.0,REV=2010.06.14.03.44 SUNWscs1mq: 3.2.0,REV=2006.12.06.18.32 SUNWscsap: 3.2.0,REV=2006.12.06.18.32 SUNWsclc: 3.2.0,REV=2006.12.06.18.32 SUNWscmd: 3.3.0,REV=2010.06.14.03.44 SUNWscsapdb: 3.2.0,REV=2006.12.06.18.32 SUNWscsapenq: 3.2.0,REV=2006.12.06.18.32 SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32 SUNWscsapscs: 3.2.0,REV=2006.12.06.18.32 SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32 SUNWscsbl: 3.2.0,REV=2006.12.06.18.32 SUNWscsyb: 3.2.0,REV=2006.12.06.18.32 SUNWscucm: 3.3.0,REV=2010.06.14.03.44 SUNWscwls: 3.3.0,REV=2010.06.14.03.44 SUNWudlm: 3.3.0,REV=2010.06.14.03.44 SUNWudlmr: 3.3.0,REV=2010.06.14.03.44 SUNWscwls: 3.2.0,REV=2006.12.06.18.32 SUNWsc9ias: 3.2.0,REV=2006.12.06.18.32 SUNWscPostgreSQL:3.2.0,REV=2006.12.06.18.32 SUNWscTimesTen: 3.3.0,REV=2010.06.14.03.44 SUNWsczone: 3.2.0,REV=2006.12.06.18.32 SUNWscdhc: 3.2.0,REV=2006.12.06.18.32 SUNWscebs: 3.2.0,REV=2006.12.06.18.32 SUNWscmqi: 3.2.0,REV=2006.12.06.18.32 SUNWscmqs: 3.2.0,REV=2006.12.06.18.32 SUNWscmys: 3.2.0,REV=2006.12.06.18.32 SUNWscsge: 3.2.0,REV=2006.12.06.18.32 SUNWscsaa: 3.2.0,REV=2006.12.06.18.32 SUNWscsag: 3.2.0,REV=2006.12.06.18.32 SUNWscsmb: 3.2.0,REV=2006.12.06.18.32 SUNWscsps: 3.2.0,REV=2006.12.06.18.32 SUNWsctomcat: 3.2.0,REV=2006.12.06.18.32
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、第 13 章グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理を参照するか、Oracle Solaris Cluster Manager オンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
phys-schost# cluster show -t resource,resourcetype,resourcegroup
個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。
resource
resource group
resourcetype
例 1-3 構成されているリソースタイプ、リソースグループ、リソースの表示
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup
=== Registered Resource Types ===
Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on Oracle Solaris Cluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False
  Global_zone:                                     True
=== Resource Groups and Resources ===
Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1
  --- Resources for Group qfs-rg ---
  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
注 - cluster status コマンドでもゾーンクラスタのステータスが表示されます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
例 1-4 クラスタコンポーネントのステータス確認
次に、cluster(1CL) status によって返されるクラスタコンポーネントのステータス情報の例を示します。
phys-schost# cluster status
=== Cluster Nodes ===
--- Node Status ---
Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online
=== Cluster Transport Paths ===
Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online
=== Cluster Quorum ===
--- Quorum Votes Summary ---
            Needed   Present   Possible
            ------   -------   --------
            3        3         4
--- Quorum Votes by Node ---
Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online
--- Quorum Votes by Device ---
Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline
=== Cluster Device Groups ===
--- Device Group Status ---
Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded
--- Spare, Inactive, and In Transition Nodes ---
Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -
=== Cluster Resource Groups ===
Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed
test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online
=== Cluster Resources ===
Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted
test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online
Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok
/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok
/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok
/dev/did/rdsk/d6            phys-schost-2            Ok
=== Zone Clusters ===
--- Zone Cluster Status ---
Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
IP ネットワークマルチパスグループのステータスを確認するには、clnode(1CL) コマンドに status サブコマンドを付けて使用します。
始める前に
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
phys-schost# clnode status -m
例 1-5 パブリックネットワークのステータスを調べる
次に、clnode status コマンドによって返されるクラスタコンポーネントのステータス情報の例を示します。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
% cluster show
cluster show コマンドをグローバルクラスタの投票ノードから実行すると、そのクラスタに関する詳細な構成情報が表示されます。また、ゾーンクラスタが構成されていれば、ゾーンクラスタの情報も表示されます。
ゾーンクラスタのみに関する構成情報を表示するには、clzonecluster show コマンドも使用できます。ゾーンクラスタのプロパティーには、ゾーンクラスタ名、IP タイプ、自動ブート、ゾーンパスなどがあります。show サブコマンドは、ゾーンクラスタの内部で実行され、そのゾーンクラスタのみが対象になります。ゾーンクラスタノードから clzonecluster show コマンドを実行すると、そのゾーンクラスタから認識可能なオブジェクトのみのステータスが得られます。
cluster コマンドでより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。clzonecluster の詳細は、clzonecluster(1CL) のマニュアルページを参照してください。
例 1-6 グローバルクラスタの構成を表示する
次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。
phys-schost# cluster show
=== Cluster ===                                
Cluster Name:                                   cluster-1
  clusterid:                                       0x50C000C4
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       62
  num_zoneclusters:                                1 
  max_privatenets:                                 10
  global_fencing:                                  pathcount
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za
  === Host Access Control ===                  
  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys
  === Cluster Nodes ===                        
  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0
    --- Transport Adapters for phys-schost-1 ---    
    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled
    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled
    --- SNMP MIB Configuration on phys-schost-1 --- 
    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2
    --- SNMP Host Configuration on phys-schost-1 ---
    --- SNMP User Configuration on phys-schost-1 ---
    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No
  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3
    --- Transport Adapters for phys-schost-2 ---    
    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled
    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled
    --- SNMP MIB Configuration on phys-schost-2 --- 
    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2
    --- SNMP Host Configuration on phys-schost-2 ---
    --- SNMP User Configuration on phys-schost-2 ---
  === Transport Cables ===                     
  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled
  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled
  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled
  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled
  === Transport Switches ===                   
  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled
  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled
  === Quorum Devices ===                       
  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2
  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000
  === Device Groups ===                        
  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3
  === Registered Resource Types ===            
  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True
  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True
  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False
  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False
  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False
  === Resource Groups and Resources ===        
  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2
    --- Resources for Group HA_RG ---          
    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True
  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2
    --- Resources for Group cl-db-rg ---       
    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True
  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2
    --- Resources for Group cl-tlmtry-rg ---   
    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True
  === DID Device Instances ===                 
  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global
  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global
  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global
  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global
  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global
  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global
  === NAS Devices ===                          
  Nas Device:                                   nas_filer1
    Type:                                          sun
    User ID:                                       root
  Nas Device:                                   nas2
    Type:                                          sun
    User ID:                                       llai例 1-7 ゾーンクラスタの構成を表示する
次の例は、ゾーンクラスタ構成のプロパティーのリストを示しています。
% clzonecluster show
=== Zone Clusters ===
Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE
  --- Solaris Resources for sczone ---
  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto
  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto
  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsHome
    special:                                       CrsHome
    raw:
    type:                                          samfs
    options:                                       []
  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsData
    special:                                       CrsData
    raw:
    type:                                          samfs
    options:                                       []
  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraHome
    special:                                       OraHome
    raw:
    type:                                          samfs
    options:                                       []
  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraData
    special:                                       OraData
    raw:
    type:                                          samfs
    options:                                       []
  --- Zone Cluster Nodes for sczone ---
  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1
  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2
clnasdevice show サブコマンドまたは Oracle Solaris Cluster Manager. を使用して、グローバルまたはゾーンクラスタ用に構成された NAS デバイスを表示することもできます。詳細は、clnasdevice(1CL)のマニュアルページを参照してください。
cluster(1CL) コマンドで check サブコマンドを使用して、グローバルクラスタが正しく機能するために必要な基本構成を検証します。チェックにエラーがない場合、cluster check はシェルプロンプトに戻ります。チェックにエラーがある場合、cluster check が指定したディレクトリかデフォルトの出力ディレクトリにレポートを生成します。cluster check を複数のノードに対して実行すると、cluster check は、ノードごとのレポートと複数ノードチェックのレポートを生成します。cluster list-checks コマンドを使用して、使用可能なすべてのクラスタチェックの一覧を表示させることもできます。
Oracle Solaris Cluster 3.3 5/11 リリース以降、新しいタイプのチェックを行うよう cluster check コマンドが拡張されています。コマンドを使用することにより、ユーザーの対話型操作なしに実行される基本検査だけでなく、対話型検査、および機能検査も実行することができます。基本検査は、-kkeyword オプションが指定されていない場合に実行されます。
対話型検査を実行する場合、ユーザーは検査で判定できない情報を入力しなければなりません。検査の実行時には、ファームウェアバージョン番号などの必要な情報を入力するよう促されます。1 つ以上の対話型検査を指定するには、-k interactive キーワードを使用します。
機能検査では、クラスタの特定の機能または動作を検査します。検査の実行時には、フェイルオーバー先となるノードや検査の開始または続行の確認などの情報を入力するよう促されます。機能検査を指定するには、-k functional 検査 id キーワードを使用します。機能検査は 1 回につき 1 つだけ実行できます。
注 - 一部の機能検査ではクラスタサービスの中断が必要になるので、検査の詳細説明を読み、最初にクラスタの稼働を停止する必要があるかどうか判断したうえで、機能検査を開始してください。この情報を表示するには、次のコマンドを使用します。
% cluster list-checks -v -C checkID
cluster check コマンドを詳細モードで -v フラグを使用して実行して、進捗情報を表示することができます。
注 - cluster check は、デバイス、ボリューム管理コンポーネント、または Oracle Solaris Cluster 構成を変更するような管理手順を行なったあとに実行してください。
clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。
phys-schost# su
My Oracle Support の「パッチと更新」タブを参照します。詳細検索を使用して、「製品」として「Solaris Cluster」を選択し、「説明」フィールドに「チェック」と指定して、チェックが含まれている Oracle Solaris Cluster パッチを見つけます。まだクラスタにインストールされていないパッチをすべて適用します。
# cluster check -v -o outputdir
冗長モード
outputdir サブディレクトリに出力をリダイレクトします。
このコマンドによって、すべての使用可能な基本検査が実行されます。クラスタ機能には影響はありません。
# cluster check -v -k interactive -o outputdir
実行するインタラクティブな妥当性検査を指定します。
このコマンドで、すべての使用可能なインタラクティブ検査が実行され、クラスタについて必要な情報の入力が求められます。クラスタ機能には影響はありません。
# cluster list-checks -k functional
たとえば、機能検査によって、ノードパニックまたは他のノードへのフェイルオーバーがトリガーされる可能性があります。
# cluster list-checks -v -C checkID
特定の検査を指定します。
# cluster check -v -k functional -C checkid -o outputdir
実行する機能の妥当性検査を指定します。
検査の実行に必要な情報を確認し、実行に必要な情報または操作を求めるプロンプトに入力を行います。
注 - 記録を保存するために、実行する検査ごとに固有の outputdir サブディレクトリ名を指定します。outputdir 名を再利用する場合、新しい検査の出力によって、再利用した outputdir サブディレクトリの既存の内容が上書きされます。
phys-schost# clzonecluster verify zoneclustername
『Oracle Solaris Cluster ソフトウェアのインストール』の「クラスタ構成の診断データを記録する方法」を参照してください。
例 1-8 グローバルクラスタ構成の基本検証 (エラーがない場合)
次の例は、cluster check を詳細モードで phys-schost-1 および phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
phys-schost# cluster check -v -h phys-schost-1,  
     phys-schost-2
cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 例 1-9 インタラクティブな妥当性検査のリスト
クラスタで実行するために使用できるすべてインタラクティブな妥当性検査の例を以下に示します。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
例 1-10 機能の妥当性検査の実行
まず、次の例は機能検査の詳細なリストを示します。検査 F6968101 の詳細な説明が表示されます。この説明で、検査によってクラスタサービスが中断されることがわかります。クラスタは稼働状態ではなくなります。機能検査が実行され、funct.test.F6968101.12Jan2011 サブディレクトリに詳細な出力が記録されます。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。
# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…
# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 
Take the cluster out of production
# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           
  ============================================================
   >>> Functional Check <<<
    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.
    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.
    Select 'continue' for more details on this check.
          1) continue
          2) exit
          choice: 1
  ============================================================
   >>> Check Description <<<
…
Follow onscreen directions例 1-11 グローバルクラスタ構成の検証 (エラーがある場合)
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/logs/cluster_check/<timestamp> に作成されます。
phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o
     /var/cluster/logs/cluster_check/Dec5/
cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #
cluster(1CL) コマンドには、クラスタファイルシステムとそのグローバルマウントポイントに構成エラーがないか、/etc/vfstab ファイルを調べるチェックが含まれています。
注 - cluster check は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えたあとで実行してください。
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% su
phys-schost# cluster check
例 1-12 グローバルマウントポイントの確認
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートは、出力ディレクトリ、/var/cluster/logs/cluster_check/<timestamp>/ に送信されています。
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node. Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as Oracle Solaris Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Oracle representative to get the latest information on what servers are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x. ... #
/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Oracle Solaris Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタを設定したときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。
クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。
次のような、クラスタの現在の状態の構成や変更を行うコマンドは、このファイルに記録されます。
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
commandlog ファイル内のレコードには次の要素を含めることができます。
日付とタイムスタンプ
コマンドの実行元であるホストの名前
コマンドのプロセス ID
コマンドを実行したユーザーのログイン名
ユーザーが実行したコマンド (すべてのオプションとオペランドを含む)
注 - すぐに特定し、シェル内でコピー、貼り付け、および実行ができるように、コマンドのオプションは commandlog ファイル内では引用符で囲まれています。
実行されたコマンドの終了ステータス
注 - あるコマンドが未知の結果を伴って異常終了した場合、Oracle Solaris Cluster ソフトウェアは commandlog ファイル内には終了ステータスを「表示しません」。
commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。
Oracle Solaris Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。
phys-schost# more /var/cluster/logs/commandlog
例 1-13 Oracle Solaris Cluster のコマンドログの内容の表示
次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0