この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。
次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。
表 4–1 SPARC: Task Map: VxVM ソフトウェアのインストールと構成
作業 |
参照先 |
---|---|
1. VxVM 構成のレイアウトを計画 | |
2. 各ノード上のルートディスクグループをどのように作成するかを決定VxVM 4.0 以降、ルートディスクグループの作成は任意です。 | |
3. VxVM ソフトウェアをインストール |
「SPARC: VERITAS Volume Manager ソフトウェアをインストールする」 VxVM インストールマニュアル |
4. 必要に応じて、ルートディスクグループを作成。ルートディスクをカプセル化しても、ルートディスクグループをローカルのルート以外のディスクに作成してもかまいません。 | |
5. (省略可能) カプセル化したルートディスクをミラー化 | |
6. ディスクグループを作成 |
VxVM 4.0 以降、ルートディスクグループの作成は任意です。ルートディスクグループを作成する予定がない場合は、「SPARC: VERITAS Volume Manager ソフトウェアをインストールする」に進みます。
VxVM 3.5 では、 VxVM をインストールしたあとに、各クラスタノードでルートディスクグループを作成する必要があります。このルートディスクグループは、VxVM が構成情報を格納するときに使用され、次の制限があります。
ノードのルートディスクグループへのアクセスは、そのノードだけに限定する必要があります。
遠隔ノードは、別のノードのルートディスクグループに格納されたデータにはアクセスできません。
scconf(1M) コマンドを使用してルートディスクグループをディスクデバイスグループとして登録しないでください。
可能であれば、非共有ディスク上の各ノードごとにルートディスクグループを構成します。
Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。
ノードのルートディスクのカプセル化 – この方法では、ルートディスクをミラー化することによって、ルートディスクが破壊または損傷した場合に、代替の起動方法を提供できます。ルートディスクをカプセル化するには、2 つの空きディスクスライスのほかに、可能であれば、ディスクの始点または終端に空きシリンダが必要です。
ローカルのルート以外のディスクの使用 – この方法は、ルートディスクをカプセル化するための代替方法を提供します。ノードのルートディスクがカプセル化されていると、カプセル化されていない場合と比べ、後の作業 (Solaris OS のアップグレードや障害復旧作業など) が複雑になる可能性があります。このような複雑さを避けるために、ローカルのルート以外のディスクを初期化またはカプセル化してルートディスクグループとして使用できます。
ローカルのルート以外のディスクで作成されたルートディスクグループはそのノード専用であり、汎用的にアクセスすることも高可用ディスクグループとして使用することもできません。ルートディスクと同様に、ルート以外のディスクをカプセル化する場合も、 2 つの空きディスクスライスのほかに、ディスクの始点または終端に空きシリンダが必要です。
詳細については、 VxVM のインストールマニュアルを参照してください。
この手順では、VERITAS Volume Manager (VxVM) ソフトウェアをインストールするノードごとに実行して、VxVM をインストールします。VxVM は、クラスタのすべてのノードにインストールしても、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールしてもかまいません。
次の作業を実行します。
クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。
インストールに必要な VERITAS Volume Manager (VxVM) ライセンスキーを取得します。
VxVM インストールマニュアルを用意します。
VxVM をインストールするクラスタノードでスーパーユーザーになります。
ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。
VxVM 4.1 では、VxVM インストールマニュアルの手順に従って、VxVM のソフトウェアとライセンスをインストールして構成します。
VxVM 4.1 では、scvxinstall コマンドは VxVM のパッケージとライセンスのインストールを行わずに、必要なインストール後の作業を実行します。
scvxinstall ユーティリティーを非対話式モードで実行します。
VxVM 4.0 以前では、次のコマンドを使用します。
# scvxinstall -i -L {license | none} |
VxVM をインストールしますが、ルートディスクのカプセル化は行いません。
特定のライセンスをインストールします。none 引数は、ライセンスキーが追加されないことを指定します。
VxVM 4.1 では、次のコマンドを使用します。
# scvxinstall -i |
VxVM 4.1 では、VxVM がインストールされているが、ルートディスクがカプセル化されていないことを確認します。
scvxinstall ユーティリティーはまた、クラスタ規模の vxio ドライブメジャー番号を選択して構成します。詳細については、scvxinstall(1M) のマニュアルページを参照してください。
VxVM クラスタ機能を有効にする予定の場合、クラスタ機能ライセンスキーを指定していない場合は、これを指定します。
ライセンスの追加方法については、VxVM のマニュアルを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
すべての VxVM パッチをインストールします。
パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』の「パッチと必須ファームウェアのレベル」を参照してください。
(省略可能) VxVM 4.0 以前では、VxVM のマニュアルページをクラスタノードに置かない場合、マニュアルページパッケージを削除します。
# pkgrm VRTSvmman |
手順 1 から 手順 9 までを繰り返して、VxVM を追加のノードにインストールします。
VxVM クラスタ機能を有効にする予定の場合は、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります。
VxVM で 1 つ以上のノードをインストールしない場合は、VxVM 以外の各ノード上で/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。
# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
# drvconfig -b -i vxio -m NNN |
VxVM をインストールしないほかのすべてのノードで、手順 a から手順 d までを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「SPARC: ルート以外のディスクにルートディスクグループを作成する」に進みます。
それ以外の場合は、手順 13 に進みます。
VxVM 3.5 では、ルートディスクグループを作成する必要があります。VxVM 4.0 以降では、ルートディスクグループの作成は任意です。
VxVM をインストールした各ノードを再起動します。
# shutdown -g0 -y -i6 |
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「SPARC: ルート以外のディスクにルートディスクグループを作成する」に進みます。
それ以外の場合は、ディスクグループを作成します。「SPARC: クラスタへのディスクグループの作成」に進みます。
この手順は、ルートディスクをカプセル化することによって、ルートディスクグループを作成するときに実行します。VxVM 3.5 では、ルートディスクは必須です。VxVM 4.0 以降では、ルートディスクグループは任意です。詳細については、 VxVM のマニュアルを参照してください。
ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「SPARC: ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。
「SPARC: VERITAS Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしていることを確認します。
VxVM をインストールしたノードでスーパーユーザーになります。
ルートディスクをカプセル化します。
# scvxinstall -e |
ルートディスクをカプセル化します。
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
この作業を、VxVM をインストールしたほかの各ノードで繰り返します。
カプセル化したルートディスクをミラー化する場合は、 「SPARC: カプセル化されたルートディスクをミラー化する」に進みます。
それ以外の場合は、「SPARC: クラスタへのディスクグループの作成」に進みます。
次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。VxVM 4.0 以降、ルートディスクグループの作成は任意です。
ルートディスクグループをルートディスクに作成する場合は、代わりに、「SPARC: ルートディスクをカプセル化する」の手順を実行します。
ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。
ノードのスーパーユーザーになります。
vxinstall ユーティリティーを起動します。
# vxinstall |
プロンプトが表示されたら、次のようにします。
VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。
Custom Installation を選択します。
起動ディスクはカプセル化しません。
ルートディスクグループに追加する任意のディスクを選択します。
自動再起動は行いません。
作成したルートディスクグループに、複数のノードに接続する 1 つ以上のディスクがある場合は、localonly プロパティーを有効にします。
以下のコマンドを使用して、ルートディスクグループ内の共有ディスクごとに localonly プロパティーを有効にします。
# scconf -c -D name=dsk/dN,localonly=true |
localonly プロパティーが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから使用できなくなる状態を防止できます。
localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
# scswitch -S -h from-node |
すべてのリソースグループとデバイスグループを退避させます。
リソースグループまたはデバイスグループを移動させるノード名を指定します。
ノードを再起動します。
# shutdown -g0 -y -i6 |
vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。
多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。
ディスクグループを作成します。「SPARC: クラスタへのディスクグループの作成」に進みます。
VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。
「SPARC: ルートディスクをカプセル化する」で説明されているとおりに、ルートディスクをカプセル化していることを確認します。
カプセル化したルートディスクをミラー化します。
VxVM のマニュアルの手順に従います。可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。
ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。
DID マッピングを表示します。
# scdidadm -L |
DID マッピングで、ルートディスクのミラー化に使用されているディスクを確認します。
ルートディスクミラーのデバイス ID 名から raw ディスクデバイスグループ名を特定します。
raw ディスクデバイスグループの名前は、dsk/dN という規則に従っています (N は番号)。次の scdidadm の出力例で、強調表示されているのが raw ディスクデバイスグループ名です。
N node:/dev/rdsk/cNtXdY /dev/did/rdsk/dN |
raw ディスクデバイスグループのノードリストを表示します。
# scconf -pvv | grep dsk/dN Device group name: dsk/dN … (dsk/dN) Device group node list: phys-schost-1, phys-schost-3 … |
ノードリストに複数のノード名が含まれる場合、ルートディスクをミラー化したノードを除くすべてのノードをノードリストから削除します。
ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。
# scconf -r -D name=dsk/dN,nodelist=node |
raw ディスクデバイスグループの localonly プロパティーを有効にします。
localonly プロパティーが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。
# scconf -c -D name=dsk/dN,localonly=true |
localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。
次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c1t1d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティーが有効に設定されています。
(DID マッピングを表示します) # scdidadm -L … 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 … (ミラーディスクの raw ディスクデバイスグループのノードリストを表示します) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (ノードリストから phys-schost-3 を削除します) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (localonly プロパティーを有効にします) # scconf -c -D name=dsk/d2,localonly=true |
ディスクグループを作成します。「SPARC: クラスタへのディスクグループの作成」に進みます。