| ナビゲーションリンクをスキップ | |
| 印刷ビューの終了 | |
|
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster 4.1 (日本語) |
1. Oracle Solaris Cluster の管理の概要
Oracle Solaris Cluster ハードウェア構成の記録
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
表 1-2 クラスタ管理の開始点を示します。
表 1-2 Oracle Solaris Cluster 管理ツール
|
コマンド行から Parallel Console Access (pconsole) ユーティリティーを使用して、リモートからクラスタにログインします。pconsole ユーティリティーは、Oracle Solaris terminal/pconsole パッケージの一部です。パッケージをインストールするには、pkg install terminal/pconsole を実行します。pconsole ユーティリティーは、コマンド行で指定した各リモートホストに対して 1 つのホスト端末ウィンドウを作成します。また、このユーティリティーは、入力された内容を開いた各接続に伝播する、中央 (またはマスター) コンソールウィンドウを開きます。
pconsole ユーティリティーは、X ウィンドウまたはコンソールモード内から実行できます。pconsole は、クラスタの管理コンソールとして使用するマシンにインストールします。サーバーの IP アドレスの特定のポート番号に接続できる端末サーバーがある場合は、ホスト名または IP アドレスに加えてポート番号を terminal-server:portnumber のように指定できます。
詳細は、pconsole(1) のマニュアルページを参照してください。
端末集配信装置またはシステムコントローラが ssh をサポートする場合は、pconsole ユーティリティーを使用してそれらのシステムのコンソールに接続できます。pconsole ユーティリティーは、Oracle Solaris terminal/pconsole パッケージの一部であり、このパッケージのインストール時にインストールされます。pconsole ユーティリティーは、コマンド行で指定した各リモートホストに対して 1 つのホスト端末ウィンドウを作成します。また、このユーティリティーは、入力された内容を開いた各接続に伝播する、中央 (またはマスター) コンソールウィンドウを開きます。詳細は、pconsole(1) のマニュアルページを参照してください。
clsetup ユーティリティーでは、ゾーンクラスタを対話形式で作成し、定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、およびグローバルクラスタの新しいノードオプションを構成できます。clzonecluster ユーティリティーは、同様な構成タスクをゾーンクラスタに対して実行します。詳細は、clsetup(1CL) と clzonecluster(1CL) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# clsetup
phys-schost# clsetup
q が表示されます。
phys-schost# clzonecluster configure sczone
ユーティリティーで実行可能な操作は、次のオプションで確認できます。
clzc:sczone> ?
対話型の clsetup ユーティリティーを使用して、ゾーンクラスタを作成したり、ファイルシステムまたはストレージデバイスをクラスタスコープに追加することもできます。その他のすべてのゾーンクラスタ構成タスクは、clzonecluster configure コマンドで実行されます。clsetup ユーティリティーの使用手順については、『Oracle Solaris Cluster ソフトウェアのインストール』を参照してください。
画面に表示される指示に従って、タスクを完了します。詳細は、『Oracle Solaris Cluster ソフトウェアのインストール』の「ゾーンクラスタの作成および構成」の手順を参照してください。
参照
詳細は、clsetup または clzonecluster のマニュアルページを参照してください。
この手順を実行するために root 役割としてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clnode show-rev -v -node
このコマンドは、すべての Oracle Solaris Cluster パッケージについて Oracle Solaris Cluster のリリース番号とバージョン文字列を表示します。
例 1-1 Oracle Solaris Cluster のリリース情報およびバージョン情報の表示
次に、Oracle Solaris Cluster 4.1 に付属しているパッケージのクラスタのリリース情報とバージョン情報の例を示します。
phys-schost# clnode show-rev 4.1 phys-schost#% clnode show-rev -v Oracle Solaris Cluster 4.1 for Solaris 11 sparc ha-cluster/data-service/apache :4.1-0.18 ha-cluster/data-service/dhcp :4.1-0.18 ha-cluster/data-service/dns :4.1-0.18 ha-cluster/data-service/glassfish-message-queue :4.1-0.18 ha-cluster/data-service/ha-ldom :4.1-0.18 ha-cluster/data-service/ha-zones :4.1-0.18 ha-cluster/data-service/iplanet-web-server :4.1-0.18 ha-cluster/data-service/nfs :4.1-0.18 ha-cluster/data-service/oracle-database :4.1-0.18 ha-cluster/data-service/oracle-external-proxy :4.1-0.18 ha-cluster/data-service/oracle-http-server :4.1-0.18 ha-cluster/data-service/oracle-pmn-server :4.1-0.18 ha-cluster/data-service/oracle-traffic-director :4.1-0.18 ha-cluster/data-service/peoplesoft :4.1-0.18 ha-cluster/data-service/sapnetweaver :4.1-0.18 ha-cluster/data-service/tomcat :4.1-0.18 ha-cluster/data-service/weblogic :4.1-0.18 ha-cluster/developer/agent-builder :4.1-0.18 ha-cluster/developer/api :4.1-0.18 ha-cluster/geo/geo-framework :4.1-0.18 ha-cluster/geo/manual :4.1-0.18 ha-cluster/geo/replication/availability-suite :4.1-0.18 ha-cluster/geo/replication/data-guard :4.1-0.18 ha-cluster/geo/replication/sbp :4.1-0.18 ha-cluster/geo/replication/srdf :4.1-0.18 ha-cluster/geo/replication/zfs-sa :4.1-0.18 ha-cluster/group-package/ha-cluster-data-services-full :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-full :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-l10n :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-minimal :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-scm :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-slm :4.1-0.18 ha-cluster/group-package/ha-cluster-full :4.1-0.18 ha-cluster/group-package/ha-cluster-geo-full :4.1-0.18 ha-cluster/group-package/ha-cluster-geo-incorporation :4.1-0.18 ha-cluster/group-package/ha-cluster-incorporation :4.1-0.18 ha-cluster/group-package/ha-cluster-minimal :4.1-0.18 ha-cluster/group-package/ha-cluster-quorum-server-full :4.1-0.18 ha-cluster/group-package/ha-cluster-quorum-server-l10n :4.1-0.18 ha-cluster/ha-service/derby :4.1-0.18 ha-cluster/ha-service/gds :4.1-0.18 ha-cluster/ha-service/logical-hostname :4.1-0.18 ha-cluster/ha-service/smf-proxy :4.1-0.18 ha-cluster/ha-service/telemetry :4.1-0.18 ha-cluster/library/cacao :4.1-0.18 ha-cluster/library/ucmm :4.1-0.18 ha-cluster/locale :4.1-0.18 ha-cluster/release/name :4.1-0.18 ha-cluster/service/management :4.1-0.18 ha-cluster/service/management/slm :4.1-0.18 ha-cluster/service/quorum-server :4.1-0.18 ha-cluster/service/quorum-server/locale :4.1-0.18 ha-cluster/service/quorum-server/manual/locale :4.1-0.18 ha-cluster/storage/svm-mediator :4.1-0.18 ha-cluster/system/cfgchk :4.1-0.18 ha-cluster/system/core :4.1-0.18 ha-cluster/system/dsconfig-wizard :4.1-0.18 ha-cluster/system/install :4.1-0.18 ha-cluster/system/manual :4.1-0.18 ha-cluster/system/manual/data-services :4.1-0.18 ha-cluster/system/manual/locale :4.1-0.18
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
root 役割以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
phys-schost# cluster show -t resource,resourcetype,resourcegroup
グローバルクラスタのノードから、次の手順のステップをすべて実行します。個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。
resource
resource group
resourcetype
例 1-2 構成されているリソースタイプ、リソースグループ、リソースの表示
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup
=== Registered Resource Types ===
Resource Type: SUNW.sctelemetry
RT_description: sctelemetry service for Oracle Solaris Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry
Single_instance: True
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: <NULL>
RT_system: True
Global_zone: True
=== Resource Groups and Resources ===
Resource Group: tel-rg
RG_description: <NULL>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-2 phys-schost-1
--- Resources for Group tel-rg ---
Resource: tel-res
Type: SUNW.sctelemetry
Type_version: 4.0
Group: tel-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-2}: True
Enabled{phys-schost-1}: True
Monitored{phys-schost-2}: True
Monitored{phys-schost-1}: True
cluster status コマンドはゾーンクラスタのステータスを表示します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
root 役割以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
例 1-3 クラスタコンポーネントのステータス確認
次に、cluster status コマンドによって返されるクラスタコンポーネントのステータス情報の例を示します。
phys-schost# cluster status
=== Cluster Nodes ===
--- Node Status ---
Node Name Status
--------- ------
phys-schost-1 Online
phys-schost-2 Online
=== Cluster Transport Paths ===
Endpoint1 Endpoint2 Status
--------- --------- ------
phys-schost-1:nge1 phys-schost-4:nge1 Path online
phys-schost-1:e1000g1 phys-schost-4:e1000g1 Path online
=== Cluster Quorum ===
--- Quorum Votes Summary ---
Needed Present Possible
------ ------- --------
3 3 4
--- Quorum Votes by Node ---
Node Name Present Possible Status
--------- ------- -------- ------
phys-schost-1 1 1 Online
phys-schost-2 1 1 Online
--- Quorum Votes by Device ---
Device Name Present Possible Status
----------- ------- -------- ------
/dev/did/rdsk/d2s2 1 1 Online
/dev/did/rdsk/d8s2 0 1 Offline
=== Cluster Device Groups ===
--- Device Group Status ---
Device Group Name Primary Secondary Status
----------------- ------- --------- ------
schost-2 phys-schost-2 - Degraded
--- Spare, Inactive, and In Transition Nodes ---
Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes
----------------- ----------- -------------- --------------------
schost-2 - - -
=== Cluster Resource Groups ===
Group Name Node Name Suspended Status
---------- --------- --------- ------
test-rg phys-schost-1 No Offline
phys-schost-2 No Online
test-rg phys-schost-1 No Offline
phys-schost-2 No Error--stop failed
test-rg phys-schost-1 No Online
phys-schost-2 No Online
=== Cluster Resources ===
Resource Name Node Name Status Message
------------- --------- ------ -------
test_1 phys-schost-1 Offline Offline
phys-schost-2 Online Online
test_1 phys-schost-1 Offline Offline
phys-schost-2 Stop failed Faulted
test_1 phys-schost-1 Online Online
phys-schost-2 Online Online
Device Instance Node Status
--------------- ---- ------
/dev/did/rdsk/d2 phys-schost-1 Ok
/dev/did/rdsk/d3 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d4 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d6 phys-schost-2 Ok
=== Zone Clusters ===
--- Zone Cluster Status ---
Name Node Name Zone HostName Status Zone Status
---- --------- ------------- ------ -----------
sczone schost-1 sczone-1 Online Running
schost-2 sczone-2 Online Running
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
IP ネットワークマルチパスグループのステータスを確認するには、このコマンドとともに clnode status コマンドを使用します。
始める前に
root 役割以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
phys-schost# clnode status -m
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
例 1-4 パブリックネットワークのステータスを調べる
次に、clnode status コマンドで戻されるクラスタコンポーネントのステータス情報の例を示します。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online nge2 Online phys-schost-2 test-rg Online nge3 Online
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
root 役割以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
% cluster show
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
cluster show コマンドをグローバルクラスタノードから実行すると、そのクラスタに関する詳細な構成情報が表示され、ゾーンクラスタが構成されていれば、ゾーンクラスタの情報も表示されます。
ゾーンクラスタのみに関する構成情報を表示するには、clzonecluster show コマンドも使用できます。ゾーンクラスタのプロパティーには、ゾーンクラスタ名、IP タイプ、自動ブート、ゾーンパスなどがあります。show サブコマンドは、ゾーンクラスタの内部で実行され、そのゾーンクラスタのみが対象になります。ゾーンクラスタノードから clzonecluster show コマンドを実行すると、そのゾーンクラスタから認識可能なオブジェクトのみのステータスが得られます。
cluster コマンドでより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。clzonecluster の詳細は、clzonecluster(1CL) のマニュアルページを参照してください。
例 1-5 グローバルクラスタの構成を表示する
次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。
phys-schost# cluster show
=== Cluster ===
Cluster Name: cluster-1
clusterid: 0x4DA2C888
installmode: disabled
heartbeat_timeout: 10000
heartbeat_quantum: 1000
private_netaddr: 172.11.0.0
private_netmask: 255.255.248.0
max_nodes: 64
max_privatenets: 10
num_zoneclusters: 12
udp_session_timeout: 480
concentrate_load: False
global_fencing: prefer3
Node List: phys-schost-1
Node Zones: phys_schost-2:za
=== Host Access Control ===
Cluster name: clustser-1
Allowed hosts: phys-schost-1, phys-schost-2:za
Authentication Protocol: sys
=== Cluster Nodes ===
Node Name: phys-schost-1
Node ID: 1
Enabled: yes
privatehostname: clusternode1-priv
reboot_on_path_failure: disabled
globalzoneshares: 3
defaultpsetmin: 1
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000001
Transport Adapter List: net1, net3
--- Transport Adapters for phys-schost-1 ---
Transport Adapter: net1
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): net
Adapter Property(device_instance): 1
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.1
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: net3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): net
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.129
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-1 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-1 ---
--- SNMP User Configuration on phys-schost-1 ---
SNMP User Name: foo
Authentication Protocol: MD5
Default User: No
Node Name: phys-schost-2:za
Node ID: 2
Type: cluster
Enabled: yes
privatehostname: clusternode2-priv
reboot_on_path_failure: disabled
globalzoneshares: 1
defaultpsetmin: 2
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000002
Transport Adapter List: e1000g1, nge1
--- Transport Adapters for phys-schost-2 ---
Transport Adapter: e1000g1
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): e1000g
Adapter Property(device_instance): 2
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.130
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: nge1
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): nge
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.2
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-2 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-2 ---
--- SNMP User Configuration on phys-schost-2 ---
=== Transport Cables ===
Transport Cable: phys-schost-1:e1000g1,switch2@1
Cable Endpoint1: phys-schost-1:e1000g1
Cable Endpoint2: switch2@1
Cable State: Enabled
Transport Cable: phys-schost-1:nge1,switch1@1
Cable Endpoint1: phys-schost-1:nge1
Cable Endpoint2: switch1@1
Cable State: Enabled
Transport Cable: phys-schost-2:nge1,switch1@2
Cable Endpoint1: phys-schost-2:nge1
Cable Endpoint2: switch1@2
Cable State: Enabled
Transport Cable: phys-schost-2:e1000g1,switch2@2
Cable Endpoint1: phys-schost-2:e1000g1
Cable Endpoint2: switch2@2
Cable State: Enabled
=== Transport Switches ===
Transport Switch: switch2
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
Transport Switch: switch1
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
=== Quorum Devices ===
Quorum Device Name: d3
Enabled: yes
Votes: 1
Global Name: /dev/did/rdsk/d3s2
Type: shared_disk
Access Mode: scsi3
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Device Name: qs1
Enabled: yes
Votes: 1
Global Name: qs1
Type: quorum_server
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Server Host: 10.11.114.83
Port: 9000
=== Device Groups ===
Device Group Name: testdg3
Type: SVM
failback: no
Node List: phys-schost-1, phys-schost-2
preferenced: yes
numsecondaries: 1
diskset name: testdg3
=== Registered Resource Types ===
Resource Type: SUNW.LogicalHostname:2
RT_description: Logical Hostname Resource Type
RT_version: 4
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hafoip
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: <NULL>
RT_system: True
Global_zone: True
Resource Type: SUNW.SharedAddress:2
RT_description: HA Shared Address Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hascip
Single_instance: False
Proxy: False
Init_nodes: <Unknown>
Installed_nodes: <All>
Failover: True
Pkglist: <NULL>
RT_system: True
Global_zone: True
Resource Type: SUNW.HAStoragePlus:4
RT_description: HA Storage Plus
RT_version: 4
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: <NULL>
RT_system: True
Global_zone: True
Resource Type: SUNW.haderby
RT_description: haderby server for Oracle Solaris Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/haderby
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: <NULL>
RT_system: True
Global_zone: True
Resource Type: SUNW.sctelemetry
RT_description: sctelemetry service for Oracle Solaris Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry
Single_instance: True
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: <NULL>
RT_system: True
Global_zone: True
=== Resource Groups and Resources ===
Resource Group: HA_RG
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group HA_RG ---
Resource: HA_R
Type: SUNW.HAStoragePlus:4
Type_version: 4
Group: HA_RG
R_description:
Resource_project_name: SCSLM_HA_RG
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-db-rg
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-db-rg ---
Resource: cl-db-rs
Type: SUNW.haderby
Type_version: 1
Group: cl-db-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-tlmtry-rg
RG_description: <Null>
RG_mode: Scalable
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-tlmtry-rg ---
Resource: cl-tlmtry-rs
Type: SUNW.sctelemetry
Type_version: 1
Group: cl-tlmtry-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
=== DID Device Instances ===
DID Device Name: /dev/did/rdsk/d1
Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d2
Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d3
Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d4
Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d5
Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d6
Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
=== NAS Devices ===
Nas Device: nas_filer1
Type: sun_uss
nodeIPs{phys-schost-2}: 10.134.112.112
nodeIPs{phys-schost-1 10.134.112.113
User ID: root例 1-6 ゾーンクラスタの構成を表示する
次の例では、RAC を使用したゾーンクラスタ構成のプロパティーを一覧表示します。
% clzonecluster show
=== Zone Clusters ===
Zone Cluster Name: sczone
zonename: sczone
zonepath: /zones/sczone
autoboot: TRUE
ip-type: shared
enable_priv_net: TRUE
--- Solaris Resources for sczone ---
Resource Name: net
address: 172.16.0.1
physical: auto
Resource Name: net
address: 172.16.0.2
physical: auto
Resource Name: fs
dir: /local/ufs-1
special: /dev/md/ds1/dsk/d0
raw: /dev/md/ds1/rdsk/d0
type: ufs
options: [logging]
--- Zone Cluster Nodes for sczone ---
Node Name: sczone-1
physical-host: sczone-1
hostname: lzzone-1
Node Name: sczone-2
physical-host: sczone-2
hostname: lzzone-2
clnasdevice show サブコマンドを使用して、グローバルまたはゾーンクラスタ用に構成された NAS デバイスを表示することもできます。詳細は、clnasdevice(1CL)のマニュアルページを参照してください。
cluster コマンドは、check サブコマンドを使用して、グローバルクラスタが正しく機能するために必要な基本構成を検証します。チェックにエラーがない場合、cluster check はシェルプロンプトに戻ります。チェックにエラーがある場合、cluster check が指定したディレクトリかデフォルトの出力ディレクトリにレポートを生成します。cluster check を複数のノードに対して実行すると、cluster check は、ノードごとのレポートと複数ノードチェックのレポートを生成します。cluster list-checks コマンドを使用して、使用可能なすべてのクラスタチェックの一覧を表示させることもできます。
コマンドを使用することにより、ユーザーの対話型操作なしに実行される基本検査だけでなく、対話型検査、および機能検査も実行することができます。基本検査は、-kkeyword オプションが指定されていない場合に実行されます。
対話型検査を実行する場合、ユーザーは検査で判定できない情報を入力しなければなりません。検査の実行時には、ファームウェアバージョン番号などの必要な情報を入力するよう促されます。1 つ以上の対話型検査を指定するには、-k interactive キーワードを使用します。
機能検査では、クラスタの特定の機能または動作を検査します。検査の実行時には、フェイルオーバー先となるノードや検査の開始または続行の確認などの情報を入力するよう促されます。機能検査を指定するには、-k functional 検査 id キーワードを使用します。機能検査は一度に 1 つだけ実行できます。
注 - 一部の機能検査ではクラスタサービスの中断が必要になるので、検査の詳細説明を読み、最初にクラスタの稼働を停止する必要があるかどうか判断したうえで、機能検査を開始してください。この情報を表示するには、次のコマンドを使用します。
% cluster list-checks -v -C checkID
cluster check コマンドを詳細モードで -v フラグを使用して実行して、進捗情報を表示することができます。
注 - cluster check は、デバイス、ボリューム管理コンポーネント、または Oracle Solaris Cluster 構成を変更するような管理手順を行なったあとに実行してください。
clzonecluster(1CL) コマンドをグローバルクラスタノードから実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。
phys-schost# su
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
この検索によって、チェックを含む Oracle Solaris Cluster ソフトウェアアップデートが見つかります。
phys-schost# cluster check -v -o outputdir
冗長モード。
outputdir サブディレクトリに出力をリダイレクトします。
このコマンドによって、すべての使用可能な基本検査が実行されます。クラスタ機能には影響はありません。
phys-schost# cluster check -v -k interactive -o outputdir
実行するインタラクティブな妥当性検査を指定します。
このコマンドで、すべての使用可能なインタラクティブ検査が実行され、クラスタについて必要な情報の入力が求められます。クラスタ機能には影響はありません。
phys-schost# cluster list-checks -k functional
たとえば、機能検査によって、ノードパニックまたは他のノードへのフェイルオーバーがトリガーされる可能性があります。
phys-schost# cluster list-checks -v -C check-ID
特定の検査を指定します。
phys-schost# cluster check -v -k functional -C check-ID -o outputdir
実行する機能の妥当性検査を指定します。
検査の実行に必要な情報を確認し、実行に必要な情報または操作を求めるプロンプトに入力を行います。
注 - 記録を保存するために、実行する検査ごとに固有の outputdir サブディレクトリ名を指定します。outputdir 名を再利用する場合、新しい検査の出力によって、再利用した outputdir サブディレクトリの既存の内容が上書きされます。
phys-schost# clzonecluster verify zoneclustername
『Oracle Solaris Cluster ソフトウェアのインストール』の「クラスタ構成の診断データを記録する方法」を参照してください。
例 1-7 グローバルクラスタ構成の基本検証 (エラーがない場合)
次の例は、cluster check を詳細モードで phys-schost-1 および phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished #
例 1-8 インタラクティブな妥当性検査のリスト
クラスタで実行するために使用できるすべてインタラクティブな妥当性検査の例を以下に示します。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
例 1-9 機能の妥当性検査の実行
まず、次の例は機能検査の詳細なリストを示します。検査 F6968101 の詳細な説明が表示されます。この説明で、検査によってクラスタサービスが中断されることがわかります。クラスタは稼働状態ではなくなります。機能検査が実行され、funct.test.F6968101.12Jan2011 サブディレクトリに詳細な出力が記録されます。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。
# cluster list-checks -k functional
F6968101 : (Critical) Perform resource group switchover
F6984120 : (Critical) Induce cluster transport network failure - single adapter.
F6984121 : (Critical) Perform cluster shutdown
F6984140 : (Critical) Induce node panic
…
# cluster list-checks -v -C F6968101
F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform
'/usr/cluster/bin/clresourcegroup switch' on specified resource group
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10
Take the cluster out of production
# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101
initializing...
initializing xml output...
loading auxiliary data...
starting check run...
pschost1, pschost2, pschost3, pschost4: F6968101.... starting:
Perform resource group switchover
============================================================
>>> Functional Check <<<
'Functional' checks exercise cluster behavior. It is recommended that you
do not run this check on a cluster in production mode.' It is recommended
that you have access to the system console for each cluster node and
observe any output on the consoles while the check is executed.
If the node running this check is brought down during execution the check
must be rerun from this same node after it is rebooted into the cluster in
order for the check to be completed.
Select 'continue' for more details on this check.
1) continue
2) exit
choice: 1
============================================================
>>> Check Description <<<
…
Follow onscreen directions例 1-10 グローバルクラスタ構成の検証 (エラーがある場合)
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/logs/cluster_check/<timestamp> に作成されます。
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 4.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... #
cluster コマンドには、クラスタファイルシステムとそのグローバルマウントポイントに構成エラーがないか、/etc/vfstab ファイルを調べるチェックが含まれています。詳細は、cluster(1CL) のマニュアルページを参照してください。
注 - cluster check は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えたあとで実行してください。
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% su
phys-schost# cluster check
例 1-11 グローバルマウントポイントの確認
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートは、出力ディレクトリ、/var/cluster/logs/cluster_check/<timestamp>/ に送信されています。
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 4.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 4.x node. ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 4.x node. Only servers that have been qualified with Oracle Solaris Cluster 4.0 are supported as Oracle Solaris Cluster 4.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Oracle representative to get the latest information on what servers are currently supported and only use a server that is supported with Oracle Solaris Cluster 4.x. ... #
/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Oracle Solaris Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタを設定したときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。
クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。
次のような、クラスタの現在の状態の構成や変更を行うコマンドは、このファイルに記録されます。
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
commandlog ファイル内のレコードには次の要素を含めることができます。
日付とタイムスタンプ
コマンドの実行元であるホストの名前
コマンドのプロセス ID
コマンドを実行したユーザーのログイン名
ユーザーが実行したコマンド (すべてのオプションとオペランドを含む)
注 - すぐに特定し、シェル内でコピー、貼り付け、および実行ができるように、コマンドのオプションは commandlog ファイル内では引用符で囲まれています。
実行されたコマンドの終了ステータス
注 - あるコマンドが未知の結果を伴って異常終了した場合、Oracle Solaris Cluster ソフトウェアは commandlog ファイル内には終了ステータスを「表示しません」。
commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。
Oracle Solaris Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。
phys-schost# more /var/cluster/logs/commandlog
例 1-12 Oracle Solaris Cluster のコマンドログの内容の表示
次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0