ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster 4.1 (日本語) |
1. Oracle Solaris Cluster の管理の概要
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
Solaris Volume Manager のグローバルデバイスのアクセス権
EMC Symmetrix Remote Data Facility で複製されたデバイスの管理
EMC SRDF を使用して DID デバイスを複製用に構成する方法
EMC SRDF で複製されたグローバルデバイスグループ構成を確認する方法
例: Oracle Solaris Cluster の SRDF 複製グループの構成
グローバルデバイス名前空間で使用する lofi デバイスのサイズを変更する方法
専用パーティションから lofi デバイスにグローバルデバイス名前空間を移行する方法
lofi デバイスから専用パーティションにグローバルデバイス名前空間を移行する方法
デバイスグループを追加および登録する方法 (Solaris Volume Manager)
デバイスグループ (raw ディスク) を追加および登録する方法
デバイスグループを削除して登録を解除する方法 (Solaris Volume Manager )
デバイスグループからノードを削除する方法 (Solaris Volume Manager)
すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を表示する方法
単一ストレージデバイスの SCSI プロトコルを表示する方法
すべてのストレージデバイスのデフォルトのグローバルなフェンシングプロトコル設定を変更する方法
単一ストレージデバイスのフェンシングプロトコルを変更する方法
ディスクパス監視 (DPM) の管理コマンドを使用すれば、セカンダリディスクパス障害の通知を受け取ることができます。このセクションでは、ディスクパスの監視に必要な管理タスクを行うための手順を説明します。ディスクパス監視デーモンに関する概念については、『Oracle Solaris Cluster Concepts Guide』の第 3 章「Key Concepts for System Administrators and Application Developers」を参照してください。コマンドオプションと関連するコマンドについては、cldevice(1CL) のマニュアルページを参照してください。scdpmd デーモンの調整に関する詳細は、scdpmd.conf(4) のマニュアルページを参照してください。デーモンが報告するログエラーに関しては、syslogd(1M) のマニュアルページも参照してください。
注 - cldevice コマンドを使ってノードに入出力デバイスを追加すると、監視を行なっていた監視リストにディスクパスが自動的に追加されます。Oracle Solaris Cluster コマンドを使ってノードからデバイスを削除すると、 ディスクパスは自動的に監視から除外されます。
表 5-5 タスクマップ: ディスクパス監視の管理
|
cldevice コマンドを実行する以下のセクションの手順にはディスクパス引数が含まれます。ディスクパス引数はノード名とディスク名からなります。ただし、ノード名は必須ではありません。指定しないと、all が使用されます。
このタスクは、クラスタのディスクパスを監視するときに行います。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# cldevice monitor -n node disk
# cldevice status device
例 5-24 単一ノードのディスクパスを監視
次の例では、単一ノードから schost-1:/dev/did/rdsk/d1 ディスクパスを監視します。ディスク /dev/did/dsk/d1 へのパスを監視するのは、ノード schost-1 上の DPM デーモンだけです。
# cldevice monitor -n schost-1 /dev/did/dsk/d1 # cldevice status d1 Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 phys-schost-1 Ok
例 5-25 すべてのノードのディスクパスを監視
次の例では、すべてのノードから schost-1:/dev/did/dsk/d1 ディスクパスを監視します。DPM は、/dev/did/dsk/d1 が有効なパスであるすべてのノードで起動されます。
# cldevice monitor /dev/did/dsk/d1 # cldevice status /dev/did/dsk/d1 Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 phys-schost-1 Ok
例 5-26 CCR からディスク構成を読み直す
次の例では、デーモンが CCR からディスク構成を読み直し、監視されているディスクパスをそのステータスとともに出力します。
# cldevice monitor + # cldevice status Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 schost-1 Ok /dev/did/rdsk/d2 schost-1 Ok /dev/did/rdsk/d3 schost-1 Ok schost-2 Ok /dev/did/rdsk/d4 schost-1 Ok schost-2 Ok /dev/did/rdsk/d5 schost-1 Ok schost-2 Ok /dev/did/rdsk/d6 schost-1 Ok schost-2 Ok /dev/did/rdsk/d7 schost-2 Ok /dev/did/rdsk/d8 schost-2 Ok
ディスクパスの監視を解除する場合は、この手順を使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# cldevice status device
# cldevice unmonitor -n node disk
例 5-27 ディスクパスの監視解除
次の例では、schost-2:/dev/did/rdsk/d1 ディスクパスの監視を解除し、クラスタ全体のディスクパスの一覧とそのステータスを出力します。
# cldevice unmonitor -n schost2 /dev/did/rdsk/d1 # cldevice status -n schost2 /dev/did/rdsk/d1 Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 schost-2 Unmonitored
クラスタに障害のあるディスクパスを表示する場合は、次の手順を使用します。
# cldevice status -s fail
例 5-28 障害のあるディスクパスを表示する
次の例では、全クラスタ内の障害のあるディスクパスを表示します。
# cldevice status -s fail Device Instance Node Status --------------- ---- ------ dev/did/dsk/d4 phys-schost-1 fail
次のイベントが発生すると、DPM が障害の発生したパスがオンラインになっても、そのパスのステータスを更新しない可能性があります。
監視対象パスの障害によって、ノードがリブートする。
リブートしたノードがオンラインに戻るまで、監視対象の DID パスの下のデバイスがオンラインに戻らない。
ブート時に監視対象の DID デバイスを利用できず、このため DID インスタンスが DID ドライバにアップロードされないため、不正なディスクパスステータスが報告されます。このような状態が発生する場合は、手動で DID 情報を更新します。
# cldevice populate
このコマンドは、1 つのノードからのみ実行されても、リモートからすべてのノードで実行されます。コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。
# ps -ef | grep cldevice populate
# cldevice status disk-device Device Instance Node Status --------------- ---- ------ dev/did/dsk/dN phys-schost-1 Ok
ファイルを使ってディスクパスを監視したり、その監視を解除する場合は、次の手順を使用します。
ファイルを使用してクラスタ構成を変更するには、まず現在の構成をエクスポートします。このエクスポート操作により XML ファイルが作成されます。このファイルは、変更する構成項目を設定するために修正できます。この手順では、このプロセス全体を説明します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# cldevice export -o configurationfile
XML ファイルのファイル名を指定します。
監視するデバイスパスを検索し、monitored 属性を true に設定します。
# cldevice monitor -i configurationfile
変更された XML ファイルのファイル名を指定します。
# cldevice status
例 5-29 ファイルからディスクパスを監視する
次の例では、ノード phys-schost–2 とデバイス d3 の間のデバイスパスが、XML ファイルを使用することによって監視されています。
最初に、現在のクラスタ構成をエクスポートします。
# cldevice export -o deviceconfig
deviceconfig XML ファイルは、 phys-schost–2 と d3 の間のパスが現在は監視されていないことを示しています。
<?xml version="1.0"?> <!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd"> <cluster name="brave_clus"> . . . <deviceList readonly="true"> <device name="d3" ctd="c1t8d0"> <devicePath nodeRef="phys-schost-1" monitored="true"/> <devicePath nodeRef="phys-schost-2" monitored="false"/> </device> </deviceList> </cluster>
そのパスを監視するには、次のように、監視される attribute を true に設定します。
<?xml version="1.0"?> <!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd"> <cluster name="brave_clus"> . . . <deviceList readonly="true"> <device name="d3" ctd="c1t8d0"> <devicePath nodeRef="phys-schost-1" monitored="true"/> <devicePath nodeRef="phys-schost-2" monitored="true"/> </device> </deviceList> </cluster>
cldevice コマンドを使用して、ファイルを読み込み、監視を有効にします。
# cldevice monitor -i deviceconfig
cldevice コマンドを使用して、この時点でデバイスが監視されていることを確認します。
# cldevice status
参照
クラスタ構成のエクスポート、および結果の XML ファイルを使用したクラスタ構成の設定の詳細は、cluster(1CL) および clconfiguration(5CL) のマニュアルページを参照してください。
この機能を有効にすると、次の条件が満たされる場合、ノードは自動的にリブートします。
ノード上ですべての監視対象の共有ディスクパスが失敗した。
少なくとも 1 つのディスクがクラスタ内の異なるノードからアクセス可能である。
ノードが再起動すると、そのノード上でマスターされているすべてのリソースグループとデバイスグループが別のノード上で再起動します。
ノードが自動リブートしたあと、ノード上のすべての監視対象共有ディスクパスがアクセス不能のままである場合、そのノードは再び自動リブートしません。しかし、ノードがリブートしたが失敗したあとに、利用可能になったディスクパスがある場合、そのノードは再び自動リブートします。
reboot_on_path_failure プロパティーを有効にすると、ローカルディスクパスの状態は、ノードのリブートが必要かどうか決定するときには考慮されません。監視された共有ディスクのみが影響を受けます。
# clnode set -p reboot_on_path_failure=enabled +
この機能を無効にすると、あるノード上のすべての監視共有ディスクパスに障害が発生しても、ノードは自動的にはリブートしません。
# clnode set -p reboot_on_path_failure=disabled +