表 1–2 クラスタ管理の開始点を示します。
グローバルクラスタ投票ノードからのみ実行する Sun Cluster コマンドは、ゾーンクラスタには使用できません。各種ゾーンでのコマンドの有効な使用方法については、Sun Cluster の該当するマニュアルページを参照してください。
作業 |
ツール |
参照先 |
---|---|---|
クラスタへの遠隔ログイン |
ccp コマンドを使用してクラスタコントロールパネル (CCP) を起動します。次に、cconsole、crlogin、cssh、ctelnet の中からいずれかのアイコンを選択します。 | |
対話形式でのクラスタの構成 |
clzonecluster(1CL) ユーティリティーか clsetup(1CL) ユーティリティーを起動します。 | |
Sun Cluster のリリース番号とバージョン情報の表示 |
clnode(1CL) コマンドと show-rev --v -node サブコマンドおよびオプションを使用します。 | |
インストールされているリソース、リソースグループ、リソースタイプの表示 |
リソース情報を表示するには、以下に示すコマンドを使用します。 | |
クラスタコンポーネントをグラフィカルに監視 |
Sun Cluster Manager を使用します。 |
オンラインヘルプを参照 |
いくつかのクラスタコンポーネントをグラフィカルに管理 |
Sun Management Center 用の Sun Cluster Manager または Sun Cluster モジュールを使用します (Sun Management Center は、SPARC ベースシステム上の Sun Cluster でのみ利用可)。 |
Sun Cluster Manager の場合は、オンラインヘルプを参照 Sun Management Center の場合は、Sun Management Center のマニュアルを参照 |
クラスタコンポーネントの状態を確認します。 |
cluster(1CL) コマンドを status サブコマンドとともに使用します。 | |
パブリックネットワーク上の IP ネットワークマルチパスグループの状態確認 |
グローバルクラスタの場合は、-m オプションを指定して、clnode(1CL) status コマンドを使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) show コマンドを使用します。 | |
クラスタ構成を表示します。 |
グローバルクラスタの場合は、cluster(1CL) コマンドを show サブコマンドとともに使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) コマンドを show サブコマンドとともに使用します。 | |
グローバルマウントポイントの確認またはクラスタ構成の検証 |
グローバルクラスタの場合は、cluster(1CL)クラスタ(1CL) コマンドを check サブコマンドとともに使用します。 ゾーンクラスタの場合は、clzonecluster(1CL) verify コマンドを使用します。 | |
Sun Cluster のコマンドログの内容の参照 |
/var/cluster/logs/commandlog ファイルを確認します。 | |
Sun Cluster のシステムメッセージの参照 |
/var/adm/messages ファイルを確認します。 | |
Solstice DiskSuite の状態の監視 |
metastat コマンドを使用します。 |
Solaris ボリュームマネージャー のマニュアル |
Solaris ボリュームマネージャーの状態を監視する (Solaris 9 または Solaris 10 が動作している場合) |
metastat コマンドを使用します。 |
Cluster Control Panel (CCP) には、cconsole、crlogin、cssh、および ctelnet ツール用の起動パッドが用意されています。これらのツールはすべて、指定した一連のノードとの多重ウィンドウ接続を起動するものです。共通ウィンドウへの入力は、これら各ホストウィンドウに送信されます。その結果、クラスタのすべてのノード上でコマンドを同時に実行できます。共通ウィンドウへの入力はホストウィンドウすべてに送信されるので、クラスタのすべてのノード上でコマンドを同時に実行できます。
cconsole、crlogin、cssh、ctelnet セッションは、コマンド行から開始することもできます。
デフォルトでは、cconsole ユーティリティーは telnet 接続を使用してノードコンソールに接続します。代わりにコンソールへの Secure Shell 接続を確立するには、cconsole ウィンドウの「オプション (Options)」メニューの「SSH の使用 (Use SSH)」チェックボックスをオンにします。または、ccp または cconsole コマンドを実行するときに -s オプションを指定します。
ccp(1M) と cconsole(1M) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
クラスタコントロールパネル (CCP) を起動する前に、次の条件を満たしていることを確認します。
SUNWccon パッケージを管理コンソール上にインストールします。
管理コンソールの PATH 変数に、Sun Cluster ツールのディレクトリ /opt/SUNWcluster/bin と /usr/cluster/bin が含まれることを確認します。ツールのディレクトリには、$CLUSTER_HOME 環境変数を設定することで別の場所を指定できます。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
Sun Enterprise 10000 サーバー プラットフォームを使用している場合は、システムサービスプロセッサ (SSP) にログインします。
管理コンソールから CCP 起動パッドを起動します。
phys-schost# ccp clustername |
CCP 起動パッドが表示されます。
クラスタとの遠隔セッションを開始するには、CCP 起動パッドの cconsole アイコン、crlogin アイコン、cssh アイコン、または ctelnet アイコンをクリックします。
クラスタノードのコンソールへの Secure Shell 接続を確立するには、次の手順を実行します。
端末集配信装置を使用している場合は、clusters ファイル、serialports ファイル、nsswitch.conf ファイルを構成します。これらのファイルは、/etc 内ファイルまたは NIS/NIS+ データベースのどちらでもかまいません。
serialports ファイルで、各コンソールアクセスデバイスへの安全な接続に使用するポート番号を割り当てます。Secure Shell 接続のデフォルトのポート番号は 22 です。
詳細は、clusters(4) と serialports(4) のマニュアルページを参照してください。
管理コンソールでスーパーユーザーになります。
保護されたモードで cconsole ユーティリティーを起動します。
# cconsole -s [-l username] [-p ssh-port] |
Secure Shell 接続を有効にします。
遠隔接続のユーザー名を指定します。-l オプションが指定されていない場合、cconsole ユーティリティーを起動したユーザー名が使用されます。
使用する Secure Shell ポート番号を指定します。-p オプションが指定されていない場合、デフォルトのポート番号 22 が安全な接続に使用されます。
clsetup ユーティリティーを使用すると、グローバルクラスタの定足数、リソースグループ、クラスタトランスポート、プライベートホスト名、デバイスグループ、新しいノードのオプションを対話形式で構成できます。clzonecluster ユーティリティーは、同様な構成作業をゾーンクラスタに対して実行します。詳細は、clsetup(1CL) と clzonecluster(1CL) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
構成ユーティリティーを起動します。
phys-schost# clsetup |
使用する構成をメニューから選択します。画面に表示される指示に従って、作業を完了します。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」に記述されている手順を参照してください。
詳細は、clsetup または clzonecluster のオンラインヘルプを参照してください。
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
次に、パッチ 110648-05 についての情報を表示した例を示します。
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
この手順を実行するためにスーパーユーザーとしてログインする必要はありません。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
Sun Cluster のリリース情報およびバージョン情報の表示:
phys-schost# clnode show-rev -v -node |
このコマンドは、すべての Sun Cluster パッケージについて Sun Cluster のリリース番号とバージョン文字列を表示します。
次に、すべてのパッケージのクラスタのリリース情報とバージョン情報の例を示します。
phys-schost# clnode show-rev 3.2 phys-schost#% clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細は、第 13 章グラフィカルユーザーインタフェースによる Sun Cluster の管理または Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
クラスタで構成されているリソースタイプ、リソースグループ、リソースを表示します。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup |
個別のリソース、リソースグループ、およびリソースタイプの詳細については、次のいずれかのコマンドとともに show サブコマンドを使用します。
資源
リソースグループ (resource group)
resourcetype
次に、クラスタ schost に対して構成されているリソースタイプ (RT Name)、リソースグループ (RG Name)、リソース (RS Name) の例を示します。
phys-schost# cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on SunCluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。 詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
ゾーンクラスタの状態は、cluster status コマンドでも表示できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
次に、cluster(1CL) status で返されるクラスタコンポーネントの状態情報の例を示します。
phys-schost# cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running |
この手順は、Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
IP ネットワークのマルチパスグループのステータスを確認するには、clnode(1CL) コマンドと status サブコマンドとともに使用します。
スーパーユーザー以外のユーザーがこのサブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
次に、clnode status コマンドで戻されるクラスタコンポーネントの状態情報の例を示します。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
この手順は Sun Cluster Manager GUI を使用しても実行できます。詳細については、Sun Cluster Manager のオンラインヘルプを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
スーパーユーザー以外のユーザーが status サブコマンドを使用するには、RBAC の承認 solaris.cluster.read が必要です。
グローバルクラスタまたはゾーンクラスタの構成を表示します。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% cluster show |
cluster show コマンドをグローバルクラスタの投票ノードから実行すると、そのクラスタに関する詳細な構成情報が表示されます。また、ゾーンクラスタが構成されていれば、ゾーンクラスタの情報も表示されます。
ゾーンクラスタのみに関する構成情報を表示するには、clzonecluster show コマンドも使用できます。ゾーンクラスタのプロパティーには、ゾーンクラスタ名、IP タイプ、自動起動、ゾーンパスなどがあります。show サブコマンドは、ゾーンクラスタの内部で実行され、そのゾーンクラスタのみが対象になります。ゾーンクラスタノードから clzonecluster show コマンドを実行すると、そのゾーンクラスタから認識可能なオブジェクトのみの状態が得られます。
cluster コマンドでより多くの情報を表示するには、冗長オプションを使用します。詳細は、cluster(1CL) のマニュアルページを参照してください。clzonecluster の詳細は、clzonecluster(1CL) のマニュアルページを参照してください。
次に、グローバルクラスタの構成情報の例を示します。ゾーンクラスタが構成されている場合は、ゾーンクラスタの情報も表示されます。
phys-schost# cluster show |
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai |
次に、ゾーンクラスタ構成のプロパティの例を示します。
% clzonecluster show === Zone Clusters === Zone Cluster Name: sczone zonename: sczone zonepath: /zones/sczone autoboot: TRUE ip-type: shared enable_priv_net: TRUE --- Solaris Resources for sczone --- Resource Name: net address: 172.16.0.1 physical: auto Resource Name: net address: 172.16.0.2 physical: auto Resource Name: fs dir: /gz/db_qfs/CrsHome special: CrsHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/CrsData special: CrsData raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraHome special: OraHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraData special: OraData raw: type: samfs options: [] --- Zone Cluster Nodes for sczone --- Node Name: sczone-1 physical-host: sczone-1 hostname: lzzone-1 Node Name: sczone-2 physical-host: sczone-2 hostname: lzzone-2 |
cluster(1CL) コマンドは、check コマンドを使用してグローバルクラスタが正しく機能するために必要な基本構成を検証します。チェックにエラーがない場合、cluster check はシェルプロンプトに戻ります。チェックにエラーがある場合、cluster check が指定したディレクトリかデフォルトの出力ディレクトリにレポートを生成します。cluster check を複数のノードに対して実行すると、cluster check は、ノードごとのレポートと複数ノードチェックのレポートを生成します。cluster list-checks コマンドを使用して、使用可能なすべてのクラスタチェックの一覧を表示させることもできます。
cluster check コマンドを詳細モードで -v フラグを使用して実行して、進捗情報を表示することができます。
cluster check は、デバイス、ボリューム管理コンポーネント、または Sun Cluster 構成を変更するような管理手順を行った後に実行してください。
clzonecluster(1CL) コマンドをグローバルクラスタの投票ノードで実行すると、ゾーンクラスタが正しく機能するために必要な構成を検証する一連のチェックが実行されます。すべてのチェックでエラーがなかった場合、clzonecluster verify はシェルプロンプトに戻ります (その場合は、ゾーンクラスタを安全にインストールできます)。エラーがあった場合は、エラーがあったグローバルクラスタノードに関して clzonecluster verify から報告があります。clzonecluster verify を複数のノードに対して実行すると、ノードごとのレポートと、複数ノードチェックのレポートが生成されます。ゾーンクラスタ内では、verify サブコマンドは指定できません。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
phys-schost# su |
クラスタ構成を検証します。
次の例は、cluster check を詳細モードで phys-schost-1 および phys-schost-2 ノードに対して実行し、エラーが発見されなかった場合を示しています。
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished # |
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/phys-schost-1 がないことを示しています。レポートは、出力ディレクトリ /var/cluster/logs/cluster_check/<timestamp> に作成されます。
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
cluster(1CL) コマンドには、クラスタファイルシステムとそのグローバルマウントポイントに構成エラーがないか /etc/vfstab ファイルを検査するチェックが含まれています。
cluster check は、デバイスやボリューム管理コンポーネントに影響を及ぼすような変更をクラスタ構成に加えたあとで実行してください。
グローバルクラスタのアクティブなメンバーノード上でスーパーユーザーになります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
% su |
グローバルクラスタ構成を検証します。
phys-schost# cluster check |
次の例は、suncluster という名前のクラスタのノード phys-schost-2 にマウントポイント /global/schost-1 がないことを示しています。レポートは、出力ディレクトリ、/var/cluster/logs/cluster_check/<timestamp>/ に送信されています。
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII テキストファイルには、クラスタ内で実行されている選択済みの Sun Cluster コマンドのレコードが含まれています。コマンドのロギングは、ユーザーがクラスタをセットアップしたときに自動的に開始され、ユーザーがクラスタをシャットダウンしたときに終了します。コマンドは、実行中およびクラスタモードでブートされたすべてのノード上でロギングされます。
クラスタの構成や現在の状態を表示するようなコマンドは、このファイルに記録されません。
次のような、クラスタの現在の状態の設定や変更を行うコマンドは、このファイルに記録されます。
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog ファイル内のレコードには次の要素を含めることができます。
日付とタイムスタンプ
コマンドの実行元であるホストの名前
コマンドのプロセス ID
コマンドを実行したユーザーのログイン名
ユーザーが実行したコマンド (すべてのオプションとオペランドを含む)
すぐに特定し、シェル内でコピー、貼り付け、および実行ができるように、コマンドのオプションは commandlog ファイル内では引用符で囲まれています。
実行されたコマンドの終了ステータス
あるコマンドが未知の結果を伴って異常終了した場合、Sun Cluster ソフトウェアは commandlog ファイル内には終了ステータスを「表示しません」。
commandlog ファイルはデフォルトでは、週に 1 回定期的にアーカイブされます。commandlog ファイルのアーカイブポリシーを変更するには、クラスタ内の各ノード上で crontab コマンドを使用します。詳細は、crontab(1) のマニュアルページを参照してください。
Sun Cluster ソフトウェアは任意の時点で、アーカイブ済みの commandlog ファイルを、クラスタノードごとに最大 8 個保持します。現在の週の commandlog ファイルの名前は commandlog です。最新の完全な週のファイルの名前は commandlog.0 です。もっとも古い完全な週のファイルの名前は commandlog.7 です。
一度に 1 つの画面で、現在の週の commandlog ファイルの内容を表示します。
phys-schost# more /var/cluster/logs/commandlog |
次の例に、more コマンドにより表示される commandlog ファイルの内容を示します。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |