JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster システム管理     Oracle Solaris Cluster 4.0 (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster の管理の概要

Oracle Solaris Cluster の管理の概要

ゾーンクラスタに関する作業

Oracle Solaris OS の機能制限

管理ツール

コマンド行インタフェース

クラスタ管理の準備

Oracle Solaris Cluster ハードウェア構成の記録

管理コンソールの使用

クラスタのバックアップ

クラスタ管理の開始

リモートからクラスタにログインする

クラスタコンソールに安全に接続する方法

クラスタ構成ユーティリティーにアクセスする方法

Oracle Solaris Cluster のリリース情報とバージョン情報を表示する方法

構成されているリソースタイプ、リソースグループ、リソースを表示する方法

クラスタコンポーネントのステータスを確認する方法

パブリックネットワークのステータスを確認する方法

クラスタ構成を表示する方法

基本的なクラスタ構成を検証する方法

グローバルマウントポイントを確認する方法

Oracle Solaris Cluster のコマンドログの内容を表示する方法

2.  Oracle Solaris Cluster と RBAC

3.  クラスタの停止とブート

4.  データ複製のアプローチ

5.  グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理

6.  定足数の管理

7.  クラスタインターコネクトとパブリックネットワークの管理

8.  ノードの追加と削除

9.  クラスタの管理

10.  CPU 使用率の制御の構成

11.  ソフトウェアの更新

12.  クラスタのバックアップと復元

A.  例

索引

クラスタ管理の開始

表 1-2 クラスタ管理の開始点を示します。

表 1-2 Oracle Solaris Cluster 管理ツール

タスク
ツール
手順
クラスタへのリモートログイン
コマンド行から Oracle Solaris pconsole ユーティリティーを使用して、リモートからクラスタにログインします。
対話形式でのクラスタの構成
clzonecluster コマンドまたは clsetup ユーティリティーを使用します。
Oracle Solaris Cluster のリリース番号とバージョン情報の表示
clnode コマンドに show-rev -v -node サブコマンドとオプションを付けて使用します。
インストールされているリソース、リソースグループ、リソースタイプの表示
リソース情報を表示するには、以下に示すコマンドを使用します。
  • clresource

  • clresourcegroup

  • clresourcetype

クラスタコンポーネントのステータスを確認します。
cluster コマンドに status サブコマンドを付けて使用します。
パブリックネットワーク上の IP ネットワークマルチパスグループのステータス確認
グローバルクラスタの場合は、clnode status コマンドに -m オプションを付けて使用します。

ゾーンクラスタの場合は、clzonecluster コマンドに show サブコマンドを付けて使用します。

クラスタ構成を表示します。
グローバルクラスタの場合は、cluster コマンドに show サブコマンドを付けて使用します。

ゾーンクラスタの場合は、clzonecluster コマンドに show サブコマンドを付けて使用します。

構成済み NAS デバイスの表示
グローバルクラスタまたはゾーンクラスタの場合は、clzonecluster コマンドに show サブコマンドを付けて使用します。
グローバルマウントポイントの確認またはクラスタ構成の検証
グローバルクラスタの場合は、cluster コマンドに check サブコマンドを付けて使用します。

ゾーンクラスタの場合は、clzonecluster verify コマンドを使用します。

Oracle Solaris Cluster のコマンドログの内容の参照
/var/cluster/logs/commandlog ファイルを確認します。
Oracle Solaris Cluster のシステムメッセージの参照
/var/adm/messages ファイルを確認します。
Solaris Volume Manager のステータスの監視
metastat コマンドを使用します。

リモートからクラスタにログインする

コマンド行から Parallel Console Access (pconsole) ユーティリティーを使用して、リモートからクラスタにログインします。pconsole ユーティリティーは、Oracle Solaris terminal/pconsole パッケージの一部です。パッケージをインストールするには、pkg install terminal/pconsole を実行します。pconsole ユーティリティーは、コマンド行で指定した各リモートホストに対して 1 つのホスト端末ウィンドウを作成します。また、このユーティリティーは、入力された内容を開いた各接続に伝播する、中央 (またはマスター) コンソールウィンドウを開きます。

pconsole ユーティリティーは、X ウィンドウまたはコンソールモード内から実行できます。pconsole は、クラスタの管理コンソールとして使用するマシンにインストールします。サーバーの IP アドレスの特定のポート番号に接続できる端末サーバーがある場合は、ホスト名または IP アドレスに加えてポート番号を terminal-server:portnumber のように指定できます。

詳細は、pconsole(1) のマニュアルページを参照してください。

クラスタコンソールに安全に接続する方法

端末集配信装置またはシステムコントローラが ssh をサポートする場合は、pconsole ユーティリティーを使用してそれらのシステムのコンソールに接続できます。pconsole ユーティリティーは、Oracle Solaris terminal/pconsole パッケージの一部であり、このパッケージのインストール時にインストールされます。pconsole ユーティリティーは、コマンド行で指定した各リモートホストに対して 1 つのホスト端末ウィンドウを作成します。また、このユーティリティーは、入力された内容を開いた各接続に伝播する、中央 (またはマスター) コンソールウィンドウを開きます。詳細は、pconsole(1) のマニュアルページを参照してください。

クラスタ構成ユーティリティーにアクセスする方法

clsetup ユーティリティーを使用すると、グローバルクラスタの定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、新しいノードのオプションを対話形式で構成できます。clzonecluster ユーティリティーは、同様な構成タスクをゾーンクラスタに対して実行します。詳細は、clsetup(1CL)clzonecluster(1CL) のマニュアルページを参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。

    グローバルクラスタのノードから、次の手順のステップをすべて実行します。

  2. 構成ユーティリティーを起動します。
    phys-schost# clsetup
    • グローバルクラスタの場合は、clsetup コマンドでユーティリティーを起動します。
      phys-schost# clsetup

      メインメニューが表示されます。

    • ゾーンクラスタの場合は、clzonecluster コマンドでユーティリティーを起動します。この例のゾーンクラスタは sczone です。
      phys-schost# clzonecluster configure sczone

      ユーティリティーで実行可能な操作は、次のオプションで確認できます。

      clzc:sczone> ? 
  3. 使用する構成をメニューから選択します。

    画面に表示される指示に従って、タスクを完了します。詳細は、『Oracle Solaris Cluster ソフトウェアのインストール』の「ゾーンクラスタの構成」に記述されている手順を参照してください。

参照

詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。

Oracle Solaris Cluster のリリース情報とバージョン情報を表示する方法

この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

例 1-1 Oracle Solaris Cluster のリリース情報およびバージョン情報の表示

次に、Oracle Solaris Cluster 4.0 に付属しているパッケージのクラスタのリリース情報とバージョン情報の例を示します。

phys-schost# clnode show-rev
4.0

phys-schost#% clnode show-rev -v

Oracle Solaris Cluster 4.0 for Solaris 11 sparc
ha-cluster/data-service/apache                             :4.0.0-0.21
ha-cluster/data-service/dhcp                               :4.0.0-0.21
ha-cluster/data-service/dns                                :4.0.0-0.21
ha-cluster/data-service/ha-ldom                            :4.0.0-0.21
ha-cluster/data-service/ha-zones                           :4.0.0-0.21
ha-cluster/data-service/nfs                                :4.0.0-0.21
ha-cluster/data-service/oracle-database                    :4.0.0-0.21
ha-cluster/data-service/tomcat                             :4.0.0-0.21
ha-cluster/data-service/weblogic                           :4.0.0-0.21
ha-cluster/developer/agent-builder                         :4.0.0-0.21
ha-cluster/developer/api                                   :4.0.0-0.21
ha-cluster/geo/geo-framework                               :4.0.0-0.21
ha-cluster/geo/manual                                      :4.0.0-0.21
ha-cluster/geo/replication/availability-suite              :4.0.0-0.21
ha-cluster/geo/replication/data-guard                      :4.0.0-0.21
ha-cluster/geo/replication/sbp                             :4.0.0-0.21
ha-cluster/geo/replication/srdf                            :4.0.0-0.21
ha-cluster/group-package/ha-cluster-data-services-full     :4.0.0-0.21
ha-cluster/group-package/ha-cluster-framework-full         :4.0.0-0.21
ha-cluster/group-package/ha-cluster-framework-l10n         :4.0.0-0.21
ha-cluster/group-package/ha-cluster-framework-minimal      :4.0.0-0.21
ha-cluster/group-package/ha-cluster-framework-scm          :4.0.0-0.21
ha-cluster/group-package/ha-cluster-framework-slm          :4.0.0-0.21
ha-cluster/group-package/ha-cluster-full                   :4.0.0-0.21
ha-cluster/group-package/ha-cluster-geo-full               :4.0.0-0.21
ha-cluster/group-package/ha-cluster-geo-incorporation      :4.0.0-0.21
ha-cluster/group-package/ha-cluster-incorporation          :4.0.0-0.21
ha-cluster/group-package/ha-cluster-minimal                :4.0.0-0.21
ha-cluster/group-package/ha-cluster-quorum-server-full     :4.0.0-0.21
ha-cluster/group-package/ha-cluster-quorum-server-l10n     :4.0.0-0.21
ha-cluster/ha-service/derby                                :4.0.0-0.21
ha-cluster/ha-service/gds                                  :4.0.0-0.21
ha-cluster/ha-service/logical-hostname                     :4.0.0-0.21
ha-cluster/ha-service/smf-proxy                            :4.0.0-0.21
ha-cluster/ha-service/telemetry                            :4.0.0-0.21
ha-cluster/library/cacao                                   :4.0.0-0.21
ha-cluster/library/ucmm                                    :4.0.0-0.21
ha-cluster/locale                                          :4.0.0-0.21
ha-cluster/release/name                                    :4.0.0-0.21
ha-cluster/service/management                              :4.0.0-0.21
ha-cluster/service/management/slm                          :4.0.0-0.21
ha-cluster/service/quorum-server                           :4.0.0-0.21
ha-cluster/service/quorum-server/locale                    :4.0.0-0.21
ha-cluster/service/quorum-server/manual/locale             :4.0.0-0.21
ha-cluster/storage/svm-mediator                            :4.0.0-0.21
ha-cluster/system/cfgchk                                   :4.0.0-0.21
ha-cluster/system/core                                     :4.0.0-0.21
ha-cluster/system/dsconfig-wizard                          :4.0.0-0.21
ha-cluster/system/install                                  :4.0.0-0.21
ha-cluster/system/manual                                   :4.0.0-0.21
ha-cluster/system/manual/data-services                     :4.0.0-0.21
ha-cluster/system/manual/locale                            :4.0.0-0.21

構成されているリソースタイプ、リソースグループ、リソースを表示する方法

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-2 構成されているリソースタイプ、リソースグループ、リソースの表示

次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True

 === Resource Groups and Resources ===

Resource Group:                                 tel-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group tel-rg ---

  Resource:                                     tel-res
    Type:                                          SUNW.sctelemetry
    Type_version:                                  4.0
    Group:                                         tel-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

クラスタコンポーネントのステータスを確認する方法

cluster status コマンドはゾーンクラスタのステータスを表示します。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-3 クラスタコンポーネントのステータス確認

次に、cluster status コマンドによって返されるクラスタコンポーネントのステータス情報の例を示します。

phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1              Endpoint2              Status
---------              ---------              ------
phys-schost-1:nge1     phys-schost-4:nge1     Path online
phys-schost-1:e1000g1  phys-schost-4:e1000g1  Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible      Status
-----------           -------      --------      ------
/dev/did/rdsk/d2s2    1            1             Online
/dev/did/rdsk/d8s2    0            1             Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name           Suspended      Status
----------        ---------           ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name          Status          Message
-------------     ---------          ------          -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

パブリックネットワークのステータスを確認する方法

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

IP ネットワークマルチパスグループのステータスを確認するには、このコマンドとともに clnode status コマンドを使用します。

始める前に

スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-4 パブリックネットワークのステータスを調べる

次に、clnode status コマンドで戻されるクラスタコンポーネントのステータス情報の例を示します。

% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    nge2       Online
phys-schost-2     test-rg       Online    nge3       Online 

クラスタ構成を表示する方法

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

始める前に

スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。

例 1-5 グローバルクラスタの構成を表示する

次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。

phys-schost# cluster show
=== Cluster ===                                

Cluster Name:                                   cluster-1
  clusterid:                                       0x4DA2C888
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.11.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  num_zoneclusters:                                12
  udp_session_timeout:                             480
  concentrate_load:                                False
  global_fencing:                                  prefer3
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        net1, net3

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          net1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               net
      Adapter Property(device_instance):           1
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          net3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               net
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        e1000g1, nge1

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          e1000g1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               e1000g
      Adapter Property(device_instance):           2
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          nge1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               nge
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:e1000g1,switch2@1
    Cable Endpoint1:                               phys-schost-1:e1000g1
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:nge1,switch1@1
    Cable Endpoint1:                               phys-schost-1:nge1
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:nge1,switch1@2
    Cable Endpoint1:                               phys-schost-2:nge1
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:e1000g1,switch2@2
    Cable Endpoint1:                               phys-schost-2:e1000g1
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          shared_disk
    Access Mode:                                   scsi3
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          sun_uss
    nodeIPs{phys-schost-2}:                        10.134.112.112
    nodeIPs{phys-schost-1                          10.134.112.113
    User ID:                                       root

例 1-6 ゾーンクラスタの構成を表示する

次の例では、RAC を使用したゾーンクラスタ構成のプロパティーを一覧表示します。

% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto


 Resource Name:                                 fs
   dir:                                            /local/ufs-1
   special:                                        /dev/md/ds1/dsk/d0
   raw:                                            /dev/md/ds1/rdsk/d0
   type:                                           ufs
   options:                                        [logging]

   --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

clnasdevice show サブコマンドを使用して、グローバルまたはゾーンクラスタ用に構成された NAS デバイスを表示することもできます。詳細は、clnasdevice(1CL)のマニュアルページを参照してください。

基本的なクラスタ構成を検証する方法

cluster コマンドは check サブコマンドを使用して、グローバルクラスタが正しく機能するために必要な基本構成を検証します。チェックにエラーがない場合、cluster check はシェルプロンプトに戻ります。チェックにエラーがある場合、cluster check が指定したディレクトリかデフォルトの出力ディレクトリにレポートを生成します。cluster check を複数のノードに対して実行すると、cluster check は、ノードごとのレポートと複数ノードチェックのレポートを生成します。cluster list-checks コマンドを使用して、使用可能なすべてのクラスタチェックの一覧を表示させることもできます。

コマンドを使用することにより、ユーザーの対話型操作なしに実行される基本検査だけでなく、対話型検査、および機能検査も実行することができます。基本検査は、-kkeyword オプションが指定されていない場合に実行されます。

cluster check コマンドを詳細モードで -v フラグを使用して実行して、進捗情報を表示することができます。


注 - cluster check は、デバイス、ボリューム管理コンポーネント、または Oracle Solaris Cluster 構成を変更するような管理手順を行なったあとに実行してください。


clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。

  1. グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。
    phys-schost# su

    グローバルクラスタのノードから、次の手順のステップをすべて実行します。

  2. 最新のチェックがあることを確認します。
    1. My Oracle Support の「パッチと更新」タブを参照します。
    2. 詳細検索で、製品として「Solaris Cluster」を選択し、「説明」フィールドで「check」と入力します。

      この検索によって、チェックを含む Oracle Solaris Cluster ソフトウェアアップデートが見つかります。

    3. まだクラスタにインストールされていないソフトウェアアップデートをすべて適用します。
  3. 基本の妥当性検査を実行します。
    # cluster check -v -o outputdir
    -v

    冗長モード。

    -o outputdir

    outputdir サブディレクトリに出力をリダイレクトします。

    このコマンドによって、すべての使用可能な基本検査が実行されます。クラスタ機能には影響はありません。

  4. インタラクティブな妥当性検査を実行します。
    # cluster check -v -k interactive -o outputdir
    -k interactive

    実行するインタラクティブな妥当性検査を指定します。

    このコマンドで、すべての使用可能なインタラクティブ検査が実行され、クラスタについて必要な情報の入力が求められます。クラスタ機能には影響はありません。

  5. 機能の妥当性検査を実行します。
    1. 非冗長モードですべての使用可能な機能検査一覧が表示されます。
      # cluster list-checks -k functional
    2. どの機能検査が、本稼働環境でクラスタの可用性またはサービスを中断する可能性がある処理を実行するかを判断してください。

      たとえば、機能検査によって、ノードパニックまたは他のノードへのフェイルオーバーがトリガーされる可能性があります。

      # cluster list-checks -v -C check-ID
      -C check-ID

      特定の検査を指定します。

    3. クラスタの機能を中断するような機能検査を実行する場合、クラスタが本稼働状態から除外されるようにします。
    4. 機能検査を開始します。
      # cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      実行する機能の妥当性検査を指定します。

      検査の実行に必要な情報を確認し、実行に必要な情報または操作を求めるプロンプトに入力を行います。

    5. 実行する残りの機能検査ごとに、手順 c手順 d を繰り返します。

      注 - 記録を保存するために、実行する検査ごとに固有の outputdir サブディレクトリ名を指定します。outputdir 名を再利用する場合、新しい検査の出力によって、再利用した outputdir サブディレクトリの既存の内容が上書きされます。


  6. ゾーンクラスタの構成を検証して、ゾーンクラスタがインストール可能かどうかを確認します。
    phys-schost# clzonecluster verify zoneclustername
  7. 今後の診断に活用できるように、クラスタ構成を記録しておきます。

    『Oracle Solaris Cluster ソフトウェアのインストール』の「クラスタ構成の診断データを記録する方法」を参照してください。

例 1-7 グローバルクラスタ構成の基本検証 (エラーがない場合)

次の例は、cluster check を詳細モードで phys-schost-1 および phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。

phys-schost# cluster check -v -h phys-schost-1, phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 

例 1-8 インタラクティブな妥当性検査のリスト

クラスタで実行するために使用できるすべてインタラクティブな妥当性検査の例を以下に示します。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

例 1-9 機能の妥当性検査の実行

まず、次の例は機能検査の詳細なリストを示します。検査 F6968101 の詳細な説明が表示されます。この説明で、検査によってクラスタサービスが中断されることがわかります。クラスタは稼働状態ではなくなります。機能検査が実行され、funct.test.F6968101.12Jan2011 サブディレクトリに詳細な出力が記録されます。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

例 1-10 グローバルクラスタ構成の検証 (エラーがある場合)

次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/logs/cluster_check/<timestamp> に作成されます。

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

グローバルマウントポイントを確認する方法

cluster コマンドには、クラスタファイルシステムとそのグローバルマウントポイントに構成エラーがないか、/etc/vfstab ファイルを調べるチェックが含まれています。詳細は、cluster(1CL) のマニュアルページを参照してください。


注 - cluster check は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えたあとで実行してください。


  1. グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。

    グローバルクラスタのノードから、次の手順のステップをすべて実行します。

    % su
  2. グローバルクラスタ構成を検証します。
    phys-schost# cluster check

例 1-11 グローバルマウントポイントの確認

次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートは、出力ディレクトリ、/var/cluster/logs/cluster_check/<timestamp>/ に送信されています。

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as an Oracle Solaris Cluster 4.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 4.x node.  
Only servers that have been qualified with Oracle Solaris Cluster 4.0 are supported as 
Oracle Solaris Cluster 4.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Oracle representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Oracle Solaris Cluster 4.x.
...
#

Oracle Solaris Cluster のコマンドログの内容を表示する方法

/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Oracle Solaris Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタを設定したときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。

クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。

次のような、クラスタの現在の状態の構成や変更を行うコマンドは、このファイルに記録されます。

commandlog ファイル内のレコードには次の要素を含めることができます。

commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。

Oracle Solaris Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。

例 1-12 Oracle Solaris Cluster のコマンドログの内容の表示

次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。

more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0