ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster (日本語) |
1. Oracle Solaris Cluster の管理の概要
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
Solaris Volume Manager のグローバルデバイスのアクセス権
Veritas Volume Manager による管理に関する注意事項
Hitachi TrueCopy で複製されたデバイスの管理
Hitachi TrueCopy を使用して DID デバイスを複製用に構成する
Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する
例: Oracle Solaris Cluster 向けの TrueCopy 複製グループの構成
EMC Symmetrix Remote Data Facility で複製したデバイスの管理
EMC SRDF を使用して DID デバイスを複製用に構成する
EMC SRDF で複製されたグローバルデバイスグループ構成を確認する
例: Oracle Solaris Cluster 向けの SRDF 複製グループの構成
グローバルデバイス名前空間で使用する lofi デバイスのサイズを変更する
専用パーティションから lofi デバイスにグローバルデバイス名前空間を移行する
lofi デバイスから専用パーティションにグローバルデバイス名前空間を移行する
デバイスグループを追加および登録する (Solaris Volume Manager)
デバイスグループ (raw ディスク) を追加および登録する
ディスクの初期化時に新しいディスクグループを作成 (Veritas Volume Manager)
デバイスグループを削除して登録を解除する (Solaris Volume Manager )
デバイスグループからノードを削除する (Solaris Volume Manager)
ディスクをカプセル化する際に新しいディスクグループを作成する (Veritas Volume Manager)
新しいボリュームを既存のデバイスグループに追加する (Veritas Volume Manager)
既存のディスクグループをデバイスグループに変換する (Veritas Volume Manager)
デバイスグループに新しいマイナー番号を割り当てる (Veritas Volume Manager)
ディスクグループをデバイスグループとして登録する (Veritas Volume Manager)
ディスクグループの構成変更を登録する (Veritas Volume Manager)
ローカルディスクグループをデバイスグループに変換する (VxVM)
デバイスグループをローカルディスクグループに変換する (VxVM)
デバイスグループからボリュームを削除する (Veritas Volume Manager)
デバイスグループを削除して登録を解除する (Veritas Volume Manager )
デバイスグループにノードを追加する (Veritas Volume Manager)
デバイスグループからノードを削除する (Veritas Volume Manager)
すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を表示する
すべてのストレージデバイスのデフォルトのグローバルなフェンシングプロトコル設定を変更する
7. クラスタインターコネクトとパブリックネットワークの管理
11. Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ
ディスクパス監視 (DPM) の管理コマンドを使用すれば、二次ディスクパス障害の通知を受け取ることができます。この節では、ディスクパスの監視に必要な管理作業を行うための手順を説明します。ディスクパス監視デーモンの概念については、『Oracle Solaris Cluster Concepts Guide』の第 3 章「Key Concepts for System Administrators and Application Developers」を参照してください。 コマンドオプションと関連するコマンドについては、cldevice(1CL) マニュアルページを参照してください。 scdpmd デーモンの調整に関する詳細は、scdpmd.conf(4) マニュアルページを参照してください。デーモンがレポートするログエラーに関しては、syslogd(1M) マニュアルページも参照してください。
注 - cldevice コマンドを使ってノードに入出力デバイスを追加すると、監視を行なっていた監視リストにディスクパスが自動的に追加されます。Oracle Solaris Cluster コマンドを使ってノードからデバイスを削除すると、 ディスクパスは自動的に監視から除外されます。
表 5-6 作業マップ: ディスクパス監視の管理
|
cldevice コマンドを実行する以下のセクションの手順にはディスクパス引数が含まれます。ディスクパス引数はノード名とディスク名からなります。ただし、ノード名は必須ではありません。指定しないと、all が使用されます。
この作業は、クラスタのディスクパスを監視するときに行います。
![]() | 注意 - DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。 ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# cldevice monitor -n node disk
# cldevice status device
例 5-45 単一ノードのディスクパスを監視
次の例では、単一ノードから schost-1:/dev/did/rdsk/d1 ディスクパスを監視します。ディスク /dev/did/dsk/d1 へのパスを監視するのは、ノード schost-1 上の DPM デーモンだけです。
# cldevice monitor -n schost-1 /dev/did/dsk/d1 # cldevice status d1 Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 phys-schost-1 Ok
例 5-46 すべてのノードのディスクパスを監視
次の例では、すべてのノードから schost-1:/dev/did/dsk/d1 ディスクパスを監視します。DPM は、/dev/did/dsk/d1 が有効なパスであるすべてのノードで起動されます。
# cldevice monitor /dev/did/dsk/d1 # cldevice status /dev/did/dsk/d1 Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 phys-schost-1 Ok
例 5-47 CCR からディスク構成を読み直す
次の例では、デーモンが CCR からディスク構成を読み直し、監視されているディスクパスをそのステータスとともに出力します。
# cldevice monitor + # cldevice status Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 schost-1 Ok /dev/did/rdsk/d2 schost-1 Ok /dev/did/rdsk/d3 schost-1 Ok schost-2 Ok /dev/did/rdsk/d4 schost-1 Ok schost-2 Ok /dev/did/rdsk/d5 schost-1 Ok schost-2 Ok /dev/did/rdsk/d6 schost-1 Ok schost-2 Ok /dev/did/rdsk/d7 schost-2 Ok /dev/did/rdsk/d8 schost-2 Ok
ディスクパスの監視を解除する場合は、この手順を使用します。
![]() | 注意 - DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。 ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# cldevice status device
# cldevice unmonitor -n node disk
例 5-48 ディスクパスの監視解除
次の例では、schost-2:/dev/did/rdsk/d1 ディスクパスの監視を解除し、クラスタ全体のディスクパスの一覧とそのステータスを出力します。
# cldevice unmonitor -n schost2 /dev/did/rdsk/d1 # cldevice status -n schost2 /dev/did/rdsk/d1 Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d1 schost-2 Unmonitored
クラスタに障害のあるディスクパスを表示する場合は、次の手順を使用します。
![]() | 注意 - DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。 ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。 |
# cldevice status -s fail
例 5-49 障害のあるディスクパスを表示する
次の例では、全クラスタ内の障害のあるディスクパスを表示します。
# cldevice status -s fail Device Instance Node Status --------------- ---- ------ dev/did/dsk/d4 phys-schost-1 fail
次のイベントが発生すると、DPM が障害の発生したパスがオンラインになっても、そのパスの状態を更新しない可能性があります。
監視対象パスの障害によって、ノードが再起動する。
再起動したノードがオンラインに戻るまで、監視対象の DID パスの下のデバイスがオンラインに戻らない。
起動時に監視対象の DID デバイスを利用できず、このため DID インスタンスが DID ドライバにアップロードされないため、不正なディスクパス状態が報告されます。このような状態が発生する場合は、手動で DID 情報を更新します。
# cldevice populate
このコマンドは、1 つのノードからのみ実行されても、リモートからすべてのノードで実行されます。コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。
# ps -ef | grep cldevice populate
# cldevice status disk-device Device Instance Node Status --------------- ---- ------ dev/did/dsk/dN phys-schost-1 Ok
ファイルを使ってディスクパスを監視したり、その監視を解除する場合は、次の手順を使用します。
ファイルを使用してクラスタ構成を変更するには、まず現在の構成をエクスポートします。このエクスポート操作により XML ファイルが作成されます。このファイルは、変更する構成項目を設定するために修正できます。この手順では、このプロセス全体を説明します。
![]() | 注意 - DPM は、Sun Cluster 3.1 10/03 ソフトウェアより前にリリースされたバージョンが動作するノードではサポートされません。 ローリングアップグレードが行われているときには DPM コマンドを使用しないでください。すべてのノードをアップグレードしたら、DPM コマンドを使用する前にこれらのノードをオンラインにする必要があります。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# cldevice export -o configurationfile
XML ファイルのファイル名を指定します。
監視するデバイスパスを検索し、monitored 属性を true に設定します。
# cldevice monitor -i configurationfile
変更された XML ファイルのファイル名を指定します。
# cldevice status
例 5-50 ファイルからディスクパスを監視する
次の例では、ノード phys-schost–2 とデバイス d3 の間のデバイスパスが、XML ファイルを使用することによって監視されています。
最初に、現在のクラスタ構成をエクスポートします。
# cldevice export -o deviceconfig
deviceconfig XML ファイルは、 phys-schost–2 と d3 の間のパスが現在は監視されていないことを示しています。
<?xml version="1.0"?> <!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd"> <cluster name="brave_clus"> . . . <deviceList readonly="true"> <device name="d3" ctd="c1t8d0"> <devicePath nodeRef="phys-schost-1" monitored="true"/> <devicePath nodeRef="phys-schost-2" monitored="false"/> </device> </deviceList> </cluster>
そのパスを監視するには、次のように、監視される attribute を true に設定します。
<?xml version="1.0"?> <!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd"> <cluster name="brave_clus"> . . . <deviceList readonly="true"> <device name="d3" ctd="c1t8d0"> <devicePath nodeRef="phys-schost-1" monitored="true"/> <devicePath nodeRef="phys-schost-2" monitored="true"/> </device> </deviceList> </cluster>
cldevice コマンドを使用して、ファイルを読み込み、監視を有効にします。
# cldevice monitor -i deviceconfig
cldevice コマンドを使用して、この時点でデバイスが監視されていることを確認します。
# cldevice status
参照
クラスタ構成のエクスポート、および結果の XML ファイルを使用したクラスタ構成の設定の詳細は、cluster(1CL) および clconfiguration(5CL) のマニュアルページを参照してください。
この機能を有効にすると、次の条件が満たされる場合、ノードは自動的に再起動します。
ノード上ですべての監視対象の共有ディスクパスが失敗した。
少なくとも 1 つのディスクがクラスタ内の異なるノードからアクセス可能である。
ノードが再起動すると、そのノード上でマスターされているすべてのリソースグループとデバイスグループが別のノード上で再起動します。
ノードが自動再起動したあと、ノード上のすべての監視対象共有ディスクパスがアクセス不能のままである場合、そのノードは再び自動再起動しません。しかし、ノードが再起動したが失敗したあとに、利用可能になったディスクパスがある場合、そのノードは再び自動再起動します。
reboot_on_path_failure プロパティーを有効にすると、ローカルディスクパスの状態は、ノードの再起動が必要かどうか決定するときには考慮されません。監視された共有ディスクのみが影響を受けます。
# clnode set -p reboot_on_path_failure=enabled +
この機能を無効にすると、あるノード上のすべての監視共有ディスクパスに障害が発生しても、ノードは自動的には再起動しません。
# clnode set -p reboot_on_path_failure=disabled +