この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。
次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。ここに示す順に従って手順を実行します。
表 5–1 作業マップ: VxVM ソフトウェアのインストールと構成
作業 |
参照先 |
---|---|
VxVM 構成のレイアウトを計画 | |
(省略可能) 各ノード上のルートディスクグループをどのように作成するかを決定 | |
VxVM ソフトウェアをインストール |
「Veritas Volume Manager ソフトウェアをインストールする」 VxVM インストールマニュアル |
(省略可能) ルートディスクグループを作成。ルートディスク (UFS のみ) をカプセル化するか、ローカルのルート以外のディスク上でルートディスクグループを作成できます。. | |
(省略可能) カプセル化されたルートディスクをミラー化 | |
ディスクグループを作成します。 |
ルートディスクグループの作成は任意です。ルートディスクグループを作成する予定がない場合は、「Veritas Volume Manager ソフトウェアをインストールする」に進みます。
ノードのルートディスクグループへのアクセスは、そのノードだけに限定する必要があります。
遠隔ノードは、別のノードのルートディスクグループに格納されたデータにはアクセスできません。
cldevicegroup コマンドを使用して、ルートディスクグループをデバイスグループとして登録しないでください。
可能であれば、非共有ディスク上の各ノードごとにルートディスクグループを構成します。
Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。
ノードのルートディスクをカプセル化します (UFS のみ) – この方法はルートディスクをミラーリングします。これにより、 ルートディスクが破損したり、ダメージを受けた場合、ブートの代替手段が提供されます。 ルートディスクをカプセル化するには、2 つの空きディスクスライスのほかに、可能であれば、ディスクの始点または終端に空きシリンダが必要です。
ZFS ファイルシステムを使用する場合、ルートディスクをカプセル化できません。代わりに、ローカルのルート以外のディスク上にルートディスクグループを構成してください。
ローカルのルート以外のディスクの使用 – この方法は、ルートディスクのカプセル化に対する代替手段として使用できます。ノードのルートディスクがカプセル化されていると、カプセル化されていない場合と比べ、後の作業 (Solaris OS のアップグレードや障害復旧作業など) が複雑になる可能性があります。このような複雑さを避けるために、ローカルのルート以外のディスクを初期化またはカプセル化してルートディスクグループとして使用できます。
ローカルのルート以外のディスクで作成されたルートディスクグループはそのノード専用であり、汎用的にアクセスすることも高可用ディスクグループとして使用することもできません。ルートディスクと同様に、ルート以外のディスクをカプセル化する場合も、 2 つの空きディスクスライスのほかに、ディスクの始点または終端に空きシリンダが必要です。
詳細については、 VxVM のインストールマニュアルを参照してください。
次の手順を実行して、VxVM でインストールする各グローバルノードに Veritas Volume Manager (VxVM) ソフトウェアをインストールします。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理するストレージデバイスに物理的に接続されたノードにだけインストールすることもできます。
次の作業を実行します。
クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。
インストールに必要な Veritas Volume Manager (VxVM) ライセンスキーを入手します。
VxVM のインストールマニュアルを用意します。
VxVM をインストールするクラスタノードでスーパーユーザーになります。
ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。
VxVM インストールガイドの手順に従って、VxVM ソフトウェアとライセンスをインストールして構成します。
clvxvm ユーティリティーを非対話式モードで実行します。
phys-schost# clvxvm initialize |
clvxvm ユーティリティーは、必要なインストール後の作業を実行します。clvxvm ユーティリティーはまた、クラスタ規模の vxio ドライバメジャー番号を選択して構成します。詳細については、clvxvm(1CL) のマニュアルページを参照してください。
SPARC:VxVM クラスタ機能を有効にする場合、クラスタ機能ライセンスキーを指定していない場合は、これを指定します。
ライセンスの追加方法については、VxVM のマニュアルを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
Sun Cluster ソフトウェアをサポートするための VxVM パッチをインストールします。
パッチおよびインストール手順の場所については、Sun Cluster Release Notes の 「 「Patches and Required Firmware Levels」 」 を参照してください。
手順 1 から手順 8 を繰り返して、追加のノードに VxVM をインストールします。
SPARC: VxVM クラスタ機能を有効にするには、クラスタ内のすべてのノードにインストールする必要があります。
VxVM で 1 つ以上のノードをインストールしない場合は、VxVM 以外の各ノード上で/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
phys-schost# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。
phys-schost# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
phys-schost# drvconfig -b -i vxio -m NNN |
VxVM をインストールしないほかのすべてのノードで、手順 a から 手順 d までを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。
それ以外の場合は、手順 12 に進みます。
ルートディスクグループの作成は任意です。
VxVM をインストールした各ノードを再起動します。
phys-schost# shutdown -g0 -y -i6 |
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます (UFS のみ)。
それ以外の場合は、ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
この手順を実行して、ルートディスクをカプセル化することで UFS ルートディスクグループを作成します。ルートディスクグループの作成は任意です。詳細については、VxVM のマニュアルを参照してください。
ルートディスクが ZFS を使用している場合、ローカルのルート以外のディスク上でルートディスクグループのみを作成できます。ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。
「Veritas Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしている必要があります。
VxVM でインストールしたノードでスーパーユーザーになります。
UFS ルートディスクをカプセル化します。
phys-schost# clvxvm encapsulate |
詳細については、clvxvm(1CL) のマニュアルページを参照してください。
この作業を VxVM をインストールしたほかのノードで繰り返します。
カプセル化したルートディスクをミラー化する場合は、「カプセル化されたルートディスクをミラー化する」に進みます。
それ以外の場合は、「クラスタへのディスクグループの作成」に進みます。
次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。ルートディスクグループの作成は任意です。
ルートディスク上にルートディスクグループを作成する際に、ルートディスクが UFS を使用する場合、代わりに、「SPARC: ルートディスクをカプセル化する」 の手順を実行してください。.
ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。
スーパーユーザーになります。
vxinstall ユーティリティーを起動します。
phys-schost# vxinstall |
vxinstall ユーティリティーでプロンプトが表示されたら、次の選択または入力を実行します。
SPARC: VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを入力します。
Custom Installation を選択します。
起動ディスクはカプセル化しません。
ルートディスクグループに追加する任意のディスクを選択します。
自動再起動は行いません。
作成したルートディスクグループに、複数のノードに接続されているディスクが 1 つ以上含まれている場合は、それらのディスクの保護を無効にする必要があります。
次のコマンドを使って、ルートディスクグループ内の各共有ディスクの保護を無効にします。
phys-schost# cldevice set -p default_fencing=nofencing device |
デバイスのプロパティーを指定します。
指定したデバイスの保護を無効にします。
デバイスの保護を無効にすると、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから誤って保護される状態を防止できます。
default_fencing プロパティーの詳細については、cldevice(1CL) のマニュアルページを参照してください。
ノードからリソースグループまたはデバイスグループを移動させます。
phys-schost# clnode evacuate from-node |
リソースグループまたはデバイスグループを移動させるノード名を指定します。
ノードをリブートします。
phys-schost# shutdown -g0 -y -i6 |
vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。
多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。
ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。
「SPARC: ルートディスクをカプセル化する」で説明されているとおりにルートディスクをカプセル化していることを確認します。
スーパーユーザーになります。
デバイスのリストを表示します。
phys-schost# cldevice list -v |
次に出力例を示します。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 |
カプセル化したルートディスクをミラー化します。
可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。
ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。
表示ルートディスクをミラー化するために使用するデバイスの raw ディスクデバイスグループのノードリストを表示します。
デバイスグループの名前は、dsk/dN という形式になります (dN は DID デバイス名)。
phys-schost# cldevicegroup list -v dsk/dN |
詳細な出力を表示します。
次に出力例を示します。
Device group Type Node list ------------ ---- --------- dsk/dN Local_Disk phys-schost-1, phys-schost-3 |
ノードリストに複数のノード名が含まれている場合、ミラー化したルートディスクのノードを除くすべてのノードをそのノードリストから削除します。
ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。
phys-schost# cldevicegroup remove-node -n node dsk/dN |
デバイスグループのノードリストから削除するノードを指定します。
複数のノードに接続されている raw ディスクデバイスグループ内のすべてのディスクに対して保護を無効にします。
デバイスの保護を無効にすると、起動デバイスが複数のノードに接続されている場合に、不意にノードが起動デバイスから誤って保護される状態を防止できます。
phys-schost# cldevice set -p default_fencing=nofencing device |
デバイスプロパティーに値を設定します。
指定したデバイスの保護を無効にします。
default_fencing プロパティーの詳細については、cldevice(1CL) のマニュアルページを参照してください。
カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。
次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c0t0d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c0t0d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、保護が無効になります。
phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- d2 pcircinus1:/dev/rdsk/c0t0d0 … Create the mirror by using VxVM procedures phys-schost# cldevicegroup list -v dsk/d2 Device group Type Node list ------------ ---- --------- dsk/d2 Local_Disk phys-schost-1, phys-schost-3 phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c0t0d0 |
ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。