1. Oracle Solaris Cluster 構成を計画する
2. グローバルクラスタノードへのソフトウェアのインストール
4. Solaris ボリュームマネージャー ソフトウェアの構成
5. Veritas Volume Manager をインストールして構成する
8. Oracle Solaris Cluster モジュールの Sun Management Center へのインストール
この節では、VxVM ソフトウェアを Oracle Solaris Cluster 構成上でインストールして構成するための情報と手順を紹介します。
次の表に、 Oracle Solaris Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。ここに示す順に従って手順を実行します。
表 5-1 作業マップ: VxVM ソフトウェアのインストールと構成
|
ルートディスクグループの作成は任意です。ルートディスクグループを作成する予定がない場合は、「Veritas Volume Manager ソフトウェアをインストールする」に進みます。
ノードのルートディスクグループへのアクセスは、そのノードだけに限定する必要があります。
遠隔ノードは、別のノードのルートディスクグループに格納されたデータにはアクセスできません。
cldevicegroup コマンドを使用して、ルートディスクグループをデバイスグループとして登録しないでください。
可能であれば、非共有ディスク上の各ノードごとにルートディスクグループを構成します。
Oracle Solaris Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。
ノードのルートディスクをカプセル化します (UFS のみ) – この方法はルートディスクをミラーリングします。これにより、 ルートディスクが破損したり、ダメージを受けた場合、ブートの代替手段が提供されます。 ルートディスクをカプセル化するには、2 つの空きディスクスライスのほかに、可能であれば、ディスクの始点または終端に空きシリンダが必要です。
ZFS ファイルシステムを使用する場合、ルートディスクをカプセル化できません。代わりに、ローカルのルート以外のディスク上にルートディスクグループを構成してください。
ローカルのルート以外のディスクの使用 – この方法は、ルートディスクのカプセル化に対する代替手段として使用できます。ノードのルートディスクがカプセル化されていると、カプセル化されていない場合と比べ、後の作業 (Solaris OS のアップグレードや障害復旧作業など) が複雑になる可能性があります。このような複雑さを避けるために、ローカルのルート以外のディスクを初期化またはカプセル化してルートディスクグループとして使用できます。
ローカルのルート以外のディスクで作成されたルートディスクグループはそのノード専用であり、汎用的にアクセスすることも高可用性ディスクグループとして使用することもできません。ルートディスクと同様に、ルート以外のディスクをカプセル化する場合も、 2 つの空きディスクスライスのほかに、ディスクの始点または終端に空きシリンダが必要です。
詳細については、 VxVM のインストールドキュメントを参照してください。
次の手順を実行して、VxVM でインストールする各グローバルノードに Veritas Volume Manager (VxVM) ソフトウェアをインストールします。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理するストレージデバイスに物理的に接続されたノードにだけインストールすることもできます。
次の作業を実行します。
クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。
インストールに必要な Veritas Volume Manager (VxVM) ライセンスキーを入手します。
VxVM のインストールドキュメントを用意します。
phys-schost# clvxvm initialize
clvxvm ユーティリティーは、必要なインストール後の作業を実行します。clvxvm ユーティリティーはまた、クラスタ規模の vxio ドライバメジャー番号を選択して構成します。詳細については、clvxvm(1CL) のマニュアルページを参照してください。
ライセンスの追加方法については、VxVM のドキュメントを参照してください。
VxVM GUI のインストールの詳細については、VxVM のドキュメントを参照してください。
パッチおよびインストール手順の場所については、Sun Cluster Release Notes の 「 「Patches and Required Firmware Levels」 」 を参照してください。
phys-schost# grep vxio /etc/name_to_major
phys-schost# vi /etc/name_to_major vxio NNN
phys-schost# drvconfig -b -i vxio -m NNN
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
それ以外の場合は、手順 12 に進みます。
注 - ルートディスクグループの作成は任意です。
phys-schost# shutdown -g0 -y -i6
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます (UFS のみ)。
それ以外の場合は、ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
この手順を実行して、ルートディスクをカプセル化することで UFS ルートディスクグループを作成します。ルートディスクグループの作成は任意です。詳細については、VxVM のドキュメントを参照してください。
注 - ルートディスクが ZFS を使用している場合、ローカルのルート以外のディスク上でルートディスクグループのみを作成できます。ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。
「Veritas Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしている必要があります。
phys-schost# clvxvm encapsulate
詳細については、clvxvm(1CL) のマニュアルページを参照してください。
カプセル化したルートディスクをミラー化する場合は、「カプセル化されたルートディスクをミラー化する」に進みます。
それ以外の場合は、「クラスタへのディスクグループの作成」に進みます。
次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。ルートディスクグループの作成は任意です。
ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。
phys-schost# vxinstall
SPARC: VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを入力します。
Custom Installation を選択します。
起動ディスクはカプセル化しません。
ルートディスクグループに追加する任意のディスクを選択します。
自動再起動は行いません。
次のコマンドを使って、ルートディスクグループ内の各共有ディスクの保護を無効にします。
phys-schost# cldevice set -p default_fencing=nofencing device
デバイスのプロパティーを指定します。
指定したデバイスの保護を無効にします。
デバイスの保護を無効にすると、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから誤って保護される状態を防止できます。
default_fencing プロパティーの詳細については、cldevice(1CL) のマニュアルページを参照してください。
phys-schost# clnode evacuate from-node
リソースグループまたはデバイスグループを移動させるノード名を指定します。
phys-schost# shutdown -g0 -y -i6
多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のドキュメントを参照してください。
ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。
「SPARC: ルートディスクをカプセル化する」で説明されているとおりにルートディスクをカプセル化していることを確認します。
phys-schost# cldevice list -v
次に出力例を示します。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0
可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。
![]() | Caution - ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。 |
デバイスグループの名前は、dsk/dN という形式になります (dN は DID デバイス名)。
phys-schost# cldevicegroup list -v dsk/dN
詳細な出力を表示します。
次に出力例を示します。
Device group Type Node list ------------ ---- --------- dsk/dN Local_Disk phys-schost-1, phys-schost-3
ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。
phys-schost# cldevicegroup remove-node -n node dsk/dN
デバイスグループのノードリストから削除するノードを指定します。
デバイスの保護を無効にすると、起動デバイスが複数のノードに接続されている場合に、不意にノードが起動デバイスから誤って保護される状態を防止できます。
phys-schost# cldevice set -p default_fencing=nofencing device
デバイスプロパティーに値を設定します。
指定したデバイスの保護を無効にします。
default_fencing プロパティーの詳細については、cldevice(1CL) のマニュアルページを参照してください。
例 5-1 カプセル化されたルートディスクのミラー化
次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c0t0d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c0t0d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、保護が無効になります。
phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- d2 pcircinus1:/dev/rdsk/c0t0d0 … Create the mirror by using VxVM procedures phys-schost# cldevicegroup list -v dsk/d2 Device group Type Node list ------------ ---- --------- dsk/d2 Local_Disk phys-schost-1, phys-schost-3 phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c0t0d0
ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。