ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster (日本語) |
1. Oracle Solaris Cluster の管理の概要
Oracle Solaris Cluster ハードウェア構成の記録
Oracle Solaris Cluster のパッチ情報を表示する
Oracle Solaris Cluster のリリース情報とバージョン情報を表示する
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
7. クラスタインターコネクトとパブリックネットワークの管理
11. Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ
表 1-2 クラスタ管理の開始点を示します。
注 - グローバルクラスタ投票ノードのみから実行する Oracle Solaris Cluster コマンドは、ゾーンクラスタには使用できません。 各種ゾーンでのコマンドの有効な使用方法については、Oracle Solaris Cluster の該当するマニュアルページを参照してください。
表 1-2 Oracle Solaris Cluster 管理ツール
|
Cluster Control Panel (CCP) には、cconsole、crlogin、cssh、および ctelnet ツール用の起動パッドが用意されています。これらのツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。
cconsole、crlogin、cssh、ctelnet セッションは、コマンド行から開始することもできます。
デフォルトでは、cconsole ユーティリティーは telnet を使用してノードコンソールに接続します。 代わりにコンソールへの Secure Shell 接続を確立するには、cconsole ウィンドウの「オプション (Options)」メニューの「SSH の使用 (Use SSH)」チェックボックスをオンにします。または、ccp または cconsole コマンドを実行するときに -s オプションを指定します。
ccp(1M) と cconsole(1M) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
クラスタコントロールパネル (CCP) を起動する前に、次の条件を満たしていることを確認します。
SUNWccon パッケージを管理コンソール上にインストールします。
管理コンソールの PATH 変数に、Oracle Solaris Cluster ツールのディレクトリ /opt/SUNWcluster/bin と /usr/cluster/bin が含まれることを確認します。ツールのディレクトリには、$CLUSTER_HOME 環境変数を設定することで別の場所を指定できます。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
phys-schost# ccp clustername
CCP 起動パッドが表示されます。
クラスタノードのコンソールへの Secure Shell 接続を確立するには、次の手順を実行します。
始める前に
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。
注 - serialports ファイルで、各コンソールアクセスデバイスへの安全な接続に使用するポート番号を割り当てます。Secure Shell 接続のデフォルトのポート番号は 22 です。
詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
# cconsole -s [-l username] [-p ssh-port]
Secure Shell 接続を有効にします。
遠隔接続のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。
使用する Secure Shell ポート番号を指定します。-p オプションが指定されていない場合、デフォルトのポート番号 22 が安全な接続に使用されます。
clsetup ユーティリティーを使用すると、グローバルクラスタの定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、新しいノードのオプションを対話形式で構成できます。clzonecluster ユーティリティーは、同様な構成作業をゾーンクラスタに対して実行します。詳細は、clsetup(1CL) と clzonecluster(1CL) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clsetup
phys-schost# clsetup
メインメニューが表示されます。
phys-schost# clzonecluster configure sczone
ユーティリティーで実行可能な操作は、次のオプションで確認できます。
clzc:sczone> ?
参照
詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# showrev -p
&fmv1 更新リリースは、製品のメインパッチ番号と更新バージョンによって識別されます。
例 1-1 Oracle Solaris Cluster のパッチ情報の表示
次に、パッチ 110648-05 についての情報を表示した例を示します。
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages:
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clnode show-rev -v -node
このコマンドは、すべての Oracle Solaris Cluster パッケージについて Oracle Solaris Cluster のリリース番号とバージョン文字列を表示します。
例 1-2 Oracle Solaris Cluster のリリース情報およびバージョン情報の表示
次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。
phys-schost# clnode show-rev 3.2 phys-schost#% clnode show-rev -v Oracle Solaris Cluster 3.3 for Solaris 10 sparc SUNWscu: 3.3.0,REV=2010.06.14.03.44 SUNWsccomu: 3.3.0,REV=2010.06.14.03.44 SUNWsczr: 3.3.0,REV=2010.06.14.03.44 SUNWsccomzu: 3.3.0,REV=2010.06.14.03.44 SUNWsczu: 3.3.0,REV=2010.06.14.03.44 SUNWscsckr: 3.3.0,REV=2010.06.14.03.44 SUNWscscku: 3.3.0,REV=2010.06.14.03.44 SUNWscr: 3.3.0,REV=2010.06.14.03.44 SUNWscrtlh: 3.3.0,REV=2010.06.14.03.44 SUNWscnmr: 3.3.0,REV=2010.06.14.03.44 SUNWscnmu: 3.3.0,REV=2010.06.14.03.44 SUNWscdev: 3.3.0,REV=2010.06.14.03.44 SUNWscgds: 3.3.0,REV=2010.06.14.03.44 SUNWscsmf: 3.3.0,REV=2010.06.14.03.44 SUNWscman: 3.3.0,REV=2010.05.21.18.40 SUNWscsal: 3.3.0,REV=2010.06.14.03.44 SUNWscsam: 3.3.0,REV=2010.06.14.03.44 SUNWscvm: 3.3.0,REV=2010.06.14.03.44 SUNWmdmr: 3.3.0,REV=2010.06.14.03.44 SUNWmdmu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasa: 3.3.0,REV=2010.06.14.03.44 SUNWscmasar: 3.3.0,REV=2010.06.14.03.44 SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44 SUNWscmasazu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasau: 3.3.0,REV=2010.06.14.03.44 SUNWscmautil: 3.3.0,REV=2010.06.14.03.44 SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44 SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44 SUNWscspmr: 3.3.0,REV=2010.06.14.03.44 SUNWscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWscderby: 3.3.0,REV=2010.06.14.03.44 SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12 SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12 SUNWscgreptc: 3.2.3,REV=2009.10.23.12.12 SUNWscghb: 3.2.3,REV=2009.10.23.12.12 SUNWscgctl: 3.2.3,REV=2009.10.23.12.12 SUNWscims: 6.0,REV=2003.10.29 SUNWscics: 6.0,REV=2003.11.14 SUNWscapc: 3.2.0,REV=2006.12.06.18.32 SUNWscdns: 3.2.0,REV=2006.12.06.18.32 SUNWschadb: 3.2.0,REV=2006.12.06.18.32 SUNWschtt: 3.2.0,REV=2006.12.06.18.32 SUNWscs1as: 3.2.0,REV=2006.12.06.18.32 SUNWsckrb5: 3.2.0,REV=2006.12.06.18.32 SUNWscnfs: 3.2.0,REV=2006.12.06.18.32 SUNWscor: 3.2.0,REV=2006.12.06.18.32 SUNWscs1mq: 3.2.0,REV=2006.12.06.18.32 SUNWscsap: 3.2.0,REV=2006.12.06.18.32 SUNWsclc: 3.2.0,REV=2006.12.06.18.32 SUNWscsapdb: 3.2.0,REV=2006.12.06.18.32 SUNWscsapenq: 3.2.0,REV=2006.12.06.18.32 SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32 SUNWscsapscs: 3.2.0,REV=2006.12.06.18.32 SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32 SUNWscsbl: 3.2.0,REV=2006.12.06.18.32 SUNWscsyb: 3.2.0,REV=2006.12.06.18.32 SUNWscwls: 3.2.0,REV=2006.12.06.18.32 SUNWsc9ias: 3.2.0,REV=2006.12.06.18.32 SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32 SUNWsczone: 3.2.0,REV=2006.12.06.18.32 SUNWscdhc: 3.2.0,REV=2006.12.06.18.32 SUNWscebs: 3.2.0,REV=2006.12.06.18.32 SUNWscmqi: 3.2.0,REV=2006.12.06.18.32 SUNWscmqs: 3.2.0,REV=2006.12.06.18.32 SUNWscmys: 3.2.0,REV=2006.12.06.18.32 SUNWscsge: 3.2.0,REV=2006.12.06.18.32 SUNWscsaa: 3.2.0,REV=2006.12.06.18.32 SUNWscsag: 3.2.0,REV=2006.12.06.18.32 SUNWscsmb: 3.2.0,REV=2006.12.06.18.32 SUNWscsps: 3.2.0,REV=2006.12.06.18.32 SUNWsctomcat: 3.2.0,REV=2006.12.06.18.32
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細は、第 13 章グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理または Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
phys-schost# cluster show -t resource,resourcetype,resourcegroup
個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。
resource
resource group
resourcetype
例 1-3 構成されているリソースタイプ、リソースグループ、リソースの表示
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on Oracle Solaris Cluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。 詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
注 - ゾーンクラスタの状態は、cluster status コマンドでも表示できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
例 1-4 クラスタコンポーネントの状態確認
次に、cluster(1CL) status で返されるクラスタコンポーネントの状態情報の例を示します。
phys-schost# cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running
この手順は、Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
IP ネットワークのマルチパスグループのステータスを確認するには、clnode(1CL) コマンドと status サブコマンドとともに使用します。
始める前に
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
phys-schost# clnode status -m
例 1-5 パブリックネットワークの状態を調べる
次に、clnode status コマンドで戻されるクラスタコンポーネントの状態情報の例を示します。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online
この手順は Oracle Solaris Cluster Manager GUI を使用しても実行できます。詳細については、Oracle Solaris Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
始める前に
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
% cluster show
cluster show コマンドをグローバルクラスタの投票ノードから実行すると、そのクラスタに関する詳細な構成情報が表示されます。また、ゾーンクラスタが構成されていれば、ゾーンクラスタの情報も表示されます。
ゾーンクラスタのみに関する構成情報を表示するには、clzonecluster show コマンドも使用できます。ゾーンクラスタのプロパティーには、ゾーンクラスタ名、IP タイプ、自動起動、ゾーンパスなどがあります。show サブコマンドは、ゾーンクラスタの内部で実行され、そのゾーンクラスタのみが対象になります。ゾーンクラスタノードから clzonecluster show コマンドを実行すると、そのゾーンクラスタから認識可能なオブジェクトのみの状態が得られます。
cluster コマンドでより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。clzonecluster の詳細は、clzonecluster(1CL) のマニュアルページを参照してください。
例 1-6 グローバルクラスタの構成を表示する
次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。
phys-schost# cluster show
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai
例 1-7 ゾーンクラスタの構成を表示する
次に、ゾーンクラスタ構成のプロパティの例を示します。
% clzonecluster show === Zone Clusters === Zone Cluster Name: sczone zonename: sczone zonepath: /zones/sczone autoboot: TRUE ip-type: shared enable_priv_net: TRUE --- Solaris Resources for sczone --- Resource Name: net address: 172.16.0.1 physical: auto Resource Name: net address: 172.16.0.2 physical: auto Resource Name: fs dir: /gz/db_qfs/CrsHome special: CrsHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/CrsData special: CrsData raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraHome special: OraHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraData special: OraData raw: type: samfs options: [] --- Zone Cluster Nodes for sczone --- Node Name: sczone-1 physical-host: sczone-1 hostname: lzzone-1 Node Name: sczone-2 physical-host: sczone-2 hostname: lzzone-2
clnasdevice show サブコマンドまたは Oracle Solaris Cluster Manager を使用して、グローバルまたはゾーンクラスタ用に設定された NAS デバイスを表示することもできます。 詳細は、clnasdevice(1CL)のマニュアルページを参照してください。
cluster(1CL) コマンドは、check サブコマンドを使用して、グローバルクラスタが正しく機能するために必要な基本構成を検証します。チェックにエラーがない場合、cluster check はシェルプロンプトに戻ります。チェックにエラーがある場合、cluster check が指定したディレクトリかデフォルトの出力ディレクトリにレポートを生成します。cluster check を複数のノードに対して実行すると、cluster check は、ノードごとのレポートと複数ノードチェックのレポートを生成します。cluster list-checks コマンドを使用して、使用可能なすべてのクラスタチェックの一覧を表示させることもできます。
Oracle Solaris Cluster 3.3 5/11 リリース以降は、cluster check コマンドに新しいタイプの検査が導入され機能強化が施されています。コマンドを使用することにより、ユーザーの対話型操作なしに実行される基本検査だけでなく、対話型検査、および機能検査も実行することができます。基本検査は、-k キーワードが指定されていない場合に実行されます。
対話型検査を実行する場合、ユーザーは検査で判定できない情報を入力しなければなりません。検査の実行時には、ファームウェアバージョン番号などの必要な情報を入力するよう促されます。1 つ以上の対話型検査を指定するには、-k interactive キーワードを使用します。
機能検査では、クラスタの特定の機能または動作を検査します。検査の実行時には、フェイルオーバー先となるノードや検査の開始または続行の確認などの情報を入力するよう促されます。機能検査を指定するには、-k functional 検査 id キーワードを使用します。機能検査は一度に 1 つだけ実行できます。
注 - 一部の機能検査ではクラスタサービスの中断が必要になるので、検査の詳細説明を読み、最初にクラスタの稼働を停止する必要があるかどうか判断したうえで、機能検査を開始してください。この情報を表示するには、次のコマンドを使用します。
% cluster list-checks -v -C checkID
cluster check コマンドを詳細モードで -v フラグを使用して実行して、進捗情報を表示することができます。
注 - cluster check は、デバイス、ボリューム管理コンポーネント、または Oracle Solaris Cluster 構成を変更するような管理手順を行なったあとに実行してください。
clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。
phys-schost# su
「My Oracle Support (オラクル サポート)」の「Patches & Updates (購入および更新)」タブに移動します。「Advanced Search (高度な検索)」を使用して「Product (製品)」として「Solaris Cluster」を選択し、「Description (説明)」フィールドで「Check (チェック)」を指定して、検査プログラムが収録されている Oracle Solaris Cluster パッチの場所を指定します。クラスタ上にまだインストールしていないパッチがあれば適用します。
# cluster check -v -o outputdir
詳細モード
出力を outputdir サブディレクトリにリダイレクトします。
このコマンドによって、利用可能なすべての基本検査が実行されます。クラスタ機能はいっさい影響を受けません。
# cluster check -v -k interactive -o outputdir
対話型検証検査の実行を指定します。
このコマンドによって、利用可能なすべての対話型検査が実行され、必要なクラスタ情報の入力を促すプロンプトが表示されます。クラスタ機能はいっさい影響を受けません。
# cluster list-checks -k functional
たとえば、機能検査によってはノードのパニック、あるいは別のノードへのフェイルオーバーが発生する場合があります。
# cluster list-checks -v -C checkID
特定の検査を指定します。
# cluster check -v -k functional -C checkid -o outputdir
機能検証検査の実行を指定します。
検査のプロンプトに応答し、検査の実行を確認し、実行すべき情報またはアクションについても確認します。
注 - 記録管理のために、実行する検査ごとに、他と重複しない outputdir サブディレクトリ名を指定してください。outputdir の名前を再利用してしまうと、再利用された outputdir サブディレクトリの既存の内容が、新しい検査の出力で上書されます。
phys-schost# clzonecluster verify zoneclustername
『Oracle Solaris Cluster ソフトウェアのインストール』の「クラスタ構成の診断データを記録する」を参照してください。
例 1-8 グローバルクラスタ構成の基本検証 (エラーがない場合)
次の例は、cluster check を詳細モードで phys-schost-1 および phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished #
例 1-9 対話型検証検査の一覧表示
次の例は、クラスタに対して実行できるすべての対話型検証検査の一覧です。出力例は可能な検査のサンプルであり、実際の利用可能な検査は各構成に応じて異なります。
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
例 1-10 機能検証検査の実行
次の例では、最初に機能検査の詳細が表示されています。次に、検査 F6968101 の一覧表示に関する詳細説明が示されています。この例を見ると、検査によってクラスタサービスが中断されることがわかります。このクラスタは稼働しなくなっています。この場合、機能検査を実行すると、funct.test.F6968101.12Jan2011 サブディレクトリにログの詳細が出力されます。出力例は可能な検査のサンプルであり、実際の利用可能な検査は各構成に応じて異なります。
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
例 1-11 グローバルクラスタ構成の検証 (エラーがある場合)
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/logs/cluster_check/<timestamp> に作成されます。
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... #
cluster(1CL) コマンドには、クラスタファイルシステムとそのグローバルマウントポイントに構成エラーがないか、/etc/vfstab ファイルを調べるチェックが含まれています。
注 - cluster check は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えたあとで実行してください。
グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% su
phys-schost# cluster check
例 1-12 グローバルマウントポイントの確認
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートは、出力ディレクトリ、/var/cluster/logs/cluster_check/<timestamp>/ に送信されています。
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node. Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as Oracle Solaris Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Oracle representative to get the latest information on what servers are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x. ... #
/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Oracle Solaris Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタをセットアップしたときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。
クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。
次のような、クラスタの現在の状態の設定や変更を行うコマンドは、このファイルに記録されます。
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
commandlog ファイル内のレコードには次の要素を含めることができます。
日付とタイムスタンプ
コマンドの実行元であるホストの名前
コマンドのプロセス ID
コマンドを実行したユーザーのログイン名
ユーザーが実行したコマンド (すべてのオプションとオペランドを含む)
注 - すぐに特定し、シェル内でコピー、貼り付け、および実行ができるように、コマンドのオプションは commandlog ファイル内では引用符で囲まれています。
実行されたコマンドの終了ステータス
注 - あるコマンドが未知の結果を伴って異常終了した場合、Oracle Solaris Cluster ソフトウェアは commandlog ファイル内には終了ステータスを「表示しません」。
commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。
Oracle Solaris Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。
phys-schost# more /var/cluster/logs/commandlog
例 1-13 Oracle Solaris Cluster のコマンドログの内容の表示
次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0