この付録では、Sun StorEdge 9910 Array と Sun StorEdge 9960 Array の取り付け、構成、管理の手順を説明します。
この章の内容は次のとおりです。
多重ホストディスクの概念的な説明については、『Sun Cluster 3.0 12/01 の概念』を参照してください。
この節では、実行中のクラスタにおける StorEdge 9910/9960 Array の構成手順を説明します。 この章の内容は次のとおりです。
表 C-1 作業マップ: StorEdge 9910/9960 Array の構成
作業 |
説明 |
---|---|
StorEdge 9910/9960 Array の論理ボリュームを追加 | |
StorEdge 9910/9960 Array の論理ボリュームを削除 |
次の手順に従って、クラスタに論理ボリュームを追加します。 この手順は、サービスプロバイダによって論理ボリュームが作成されたあと、すべてのクラスタノードのブートが完了し、StorEdge 9910/9960 Array に接続されていることを想定しています。
すべてのクラスタノード上で、/devices エントリと /dev エントリを更新します。
# devfsadm |
パートナーグループに接続されている単一のノード上で format コマンドを実行し、システムが新しい論理ボリュームを認識できることを確認します。
# format |
format コマンドの使用方法については、format コマンドのマニュアルページを参照してください。
VERITAS Volume Manager を使用しているかどうかを確認します。
vxdctl enable コマンドで VERITAS Volume Manager のデバイスリストを更新し、新しいデバイス (ボリューム) の情報を反映させる方法については、VERITAS Volume Manager のマニュアルを参照してください。
必要に応じて論理ボリュームをパーティションに分割します。
論理ボリュームをパーティションに分割する方法については、サービスプロバイダにお問い合わせください。
クラスタ内の任意のノードから、広域デバイス名前空間を更新します。
# scgdevs |
CD-ROM ドライブを接続しているノード上で vold などのボリューム管理デーモンが実行されている場合、ドライブ内にディスクが挿入されていないと、device busy エラーが発生する可能性があります。 このエラーは既知のものです。
新しい StorEdge 9910/9960 Array の論理ボリュームを使用できるように、新しいリソースを作成するか、実行中のリソースを再構成します。具体的な手順については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。
次の手順に従って、論理ボリュームを削除します。 この手順は、すべてのクラスタノードの起動が完了し、削除しようとしている論理ボリュームをホストする StorEdge 9910/9960 Array に接続されていることを想定しています。
便宜上、作業を開始するノードを「ノード A」、もう一方のノードを「ノード B」とします。
論理ボリュームを削除すると、そのボリューム上のデータはすべて削除されます。
必要に応じて、削除する論理ボリュームのデータとボリュームを別の場所へ移動させます。 その必要がない場合は、手順 2 に進みます。
VERITAS Volume Manager を使用していますか。
使用していない場合は、手順 3 に進みます。
使用している場合は、削除する論理ボリュームに接続されているすべてのクラスタノード上でデバイスリストを更新します。
vxdisk rm コマンドで VERITAS Volume Manager のデバイスリストからデバイス (ボリューム) を削除する方法については、VERITAS Volume Manager のマニュアルを参照してください。
Solstice DiskSuite/Solaris Volume Manager または VERITAS Volume Manager の適切なコマンドを実行し、ディスクセットまたはディスクグループから論理ユニット番号 (LUN) の参照を削除します。
詳細については、Solstice DiskSuite/Solaris Volume Manager または VERITAS Volume Manager のマニュアルを参照してください。
論理ボリュームを削除します。
論理ボリュームを削除する方法については、サービスプロバイダにお問い合わせください。
ノード A とノード B 上で実行されているリソースグループおよびデバイスグループを特定します。
この情報を記録します。この情報は、手順 12 でこれらのノードにリソースグループとデバイスグループを返すときに必要になります。
# scstat |
すべてのリソースグループおよびデバイスグループをノード A から削除します。
# scswitch -S -h from-node |
shutdown -i6 コマンドを実行して、ノード A を停止し、再起動します。
-i6 オプションを指定して shutdown コマンドを実行すると、ノードの停止と再起動が行われます。
# shutdown -y -g0 -i6 |
詳細については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード A 上で、/devices エントリと /dev エントリを更新します。
# devfsadm -C # scdidadm -C |
すべてのリソースグループおよびデバイスグループをノード B から削除します。
# scswitch -S -h from-node |
shutdown -i6 コマンドを実行して、ノード B を停止し、再起動します。
-i6 オプションを指定して shutdown コマンドを実行すると、ノードが停止し、ok プロンプトに続いて再起動が行われます。
# shutdown -y -g0 -i6 |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード B 上で、/devices エントリと /dev エントリを更新します。
# devfsadm -C # scdidadm -C |
手順 5 で確認したリソースグループとデバイスグループをノード B に返します。
# scswitch -z -g resource-group -h nodename # scswitch -z -D device-group-name -h nodename |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
論理ボリュームを作成します。具体的な手順については、「クラスタに StorEdge 9910/9960 Array の論理ボリュームを追加する方法」を参照してください。
この節では、StorEdge 9910/9960 Array の管理手順の一部を紹介します。 StorEdge 9910/9960 コンポーネントの追加、取り外し、交換の方法については、サービスプロバイダにお問い合わせください。
表 C-2 作業マップ: StorEdge 9910/9960 Array の管理
作業 |
説明 |
---|---|
StorEdge 9910/9960 Array の追加 | |
StorEdge 9910/9960 Array の取り外し | |
ホストとアレイをつなぐ光ファイバケーブルの交換 | |
ホストアダプタの交換 |
次の手順に従って、実行中のクラスタに新しい StorEdge 9910/9960 Array を追加します。
便宜上、作業を開始するノードを「ノード A」、もう一方のノードを「ノード B」とします。
StorEdge 9910/9960 Array に電源を入れます。
起動には数分間かかります。
StorEdge 9910/9960 Array に電源を入れる方法については、サービスプロバイダにお問い合わせください。
新しい StorEdge 9910/9960 Array を構成します。
必要な論理ボリュームを作成する方法については、サービスプロバイダにお問い合わせください。
ノード A とノード B 上で実行されているリソースグループおよびデバイスグループを特定します。
この情報を記録します。この情報は、手順 28 でこれらのノードにリソースグループとデバイスグループを返すときに必要になります。
# scstat |
すべてのリソースグループおよびデバイスグループをノード A から削除します。
# scswitch -S -h from-node |
ノード A にホストアダプタを取り付ける必要があるかどうかを確認します。
ホストアダプタがノード A の最初の JNI ホストアダプタかどうかを確認します。
最初の JNI ホストアダプタでない場合は、手順 11 に進みます。
最初の JNI ホストアダプタである場合は、サポートパッケージを取り付け、ドライバを構成します。具体的な方法については、サービスプロバイダにお問い合わせください。
ノード A 上の Sun Cluster ソフトウェアを停止し、ノード A を停止します。
# shutdown -y -g0 -i0 |
ノードを停止する手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード A の電源を切ります。
ノード A にホストアダプタを取り付けます。
ホストアダプタの取り付け方法については、ホストアダプタの付属マニュアルを参照するか、製造元の Web サイトにて更新情報を参照してください。
必要に応じてノード A に電源を入れ、起動します。
{0} ok boot -x |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード A に StorEdge 9910/9960 Array を接続します。
StorEdge 9910/9960 Array とクラスタノードをつなぐ光ファイバケーブルの接続方法については、サービスプロバイダにお問い合わせください。
ファイバチャネルアダプタと StorEdge 9910/9960 Array を構成します。
アダプタと StorEdge 9910/9960 Array の構成方法については、サービスプロバイダにお問い合わせください。
ノード A を停止します。
# shutdown -y -g0 -i0 |
ノード A で再構成起動を行い、新しい Solaris デバイスファイルとリンクを作成します。
{0} ok boot -r |
新しい論理ボリュームにラベルを付けます。
新しい論理ボリュームにラベルを付ける方法については、サービスプロバイダにお問い合わせください。
(省略可能) ノード A 上で、新しい StorEdge 9910/9960 Array にデバイス ID (DID) が割り当てられていることを確認します。
# scdidadm -l |
ノード B にホストアダプタを取り付ける必要があるかどうかを確認します。
ホストアダプタがノード B の最初の JNI ホストアダプタかどうかを確認します。
最初の JNI ホストアダプタでない場合は、手順 19 に進みます。
最初の JNI ホストアダプタである場合は、サポートパッケージを取り付け、ドライバを構成します。具体的な方法については、サービスプロバイダにお問い合わせください。
すべてのリソースグループおよびデバイスグループをノード B から削除します。
# scswitch -S -h from-node |
ノード B 上の Sun Cluster ソフトウェアを停止し、ノード B を停止します。
# shutdown -y -g0 -i0 |
ノードを停止する手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード B の電源を切ります。
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード B にホストアダプタを取り付けます。
ホストアダプタの取り付け方法については、ホストアダプタおよびノードの付属マニュアルを参照してください。
必要に応じてノード B に電源を入れ、起動します。
{0} ok boot -x |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード B に StorEdge 9910/9960 Array を接続します。
StorEdge 9910/9960 Array とクラスタノードをつなぐ光ファイバケーブルの接続方法については、サービスプロバイダにお問い合わせください。
ノード B を停止します。
# shutdown -y -g0 -i0 |
再構成起動を実行し、ノード B 上に新しい Solaris デバイスファイルおよびリンクを作成します。
{0} ok boot -r |
(省略可能) ノード B 上で、新しい StorEdge 9910/9960 Array にデバイス ID (DID) が割り当てられていることを確認します。
# scdidadm -l |
手順 3 で特定したリソースグループとデバイスグループをノード B に返します。
# scswitch -z -g resource-group -h nodename # scswitch -z -D device-group-name -h nodename |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ボリューム管理作業を実行し、クラスタに新しい論理ボリュームを組み込みます。
詳細については、Solstice DiskSuite/Solaris Volume Manager または VERITAS Volume Manager のマニュアルを参照してください。
次の手順に従って、実行中のクラスタから StorEdge 9910/9960 Array とそのサブミラーを永続的に取り外します。 この手順により、取り外そうとする StorEdge 9910/9960 Array のノードからホストアダプタを取り外せるようになります。
便宜上、作業を開始するノードを「ノード A」、もう一方のノードを「ノード B」とします。
作業中、取り外す StorEdge 9910/9960 Array のデータにはアクセスできません。
取り外す StorEdge 9910/9960 Array に関連付けられているすべてのデータベーステーブル、データサービス、ボリュームのバックアップを作成します。
取り外す StorEdge 9910/9960 Array からサブミラーを切り離します。これは、取り外すアレイへの入出力処理をすべて停止するためです。
詳細については、Solstice DiskSuite/Solaris Volume Manager または VERITAS Volume Manager のマニュアルを参照してください。
Solstice DiskSuite/Solaris Volume Manager または VERITAS Volume Manager の適切なコマンドを実行し、ディスクセットまたはディスクグループから LUN の参照を削除します。
詳細については、Solstice DiskSuite/Solaris Volume Manager または VERITAS Volume Manager のマニュアルを参照してください。
ノード A 上で実行されているリソースグループおよびデバイスグループを特定します。
# scstat |
すべてのリソースグループおよびデバイスグループをノード A から削除します。
# scswitch -S -h from-node |
ノード A 上の Sun Cluster ソフトウェアを停止して、ノード A を停止します。
# shutdown -y -g0 -i0 |
ノードを停止する手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
ノード A と StorEdge 9910/9960 Array をつなぐ光ファイバケーブルを取り外します。
ノード A からホストアダプタを取り外すかどうかを確認します。
取り外す必要がない場合は、手順 11 に進みます。
取り外す必要がある場合は、ノード A の電源を切ります。
ノード A からホストアダプタを取り外します。
ホストアダプタの取り外し方法については、ホストアダプタの付属マニュアルを参照するか、製造元の Web サイトにて更新情報を参照してください。
起動が行われないようにして、ノード A に電源を入れます。
詳細については、サーバーの付属マニュアルを参照してください。
ノード A をクラスタモードで起動します。
{0} ok boot |
ノード A 上で実行されているリソースグループおよびデバイスグループを特定します。
# scstat |
すべてのリソースグループおよびデバイスグループをノード B から削除します。
# scswitch -S -h from-node |
ノード B 上の Sun Cluster ソフトウェアを停止して、ノード B を停止します。
# shutdown -y -g0 -i0 |
ノード B と StorEdge 9910/9960 Array をつなぐ光ファイバケーブルを取り外します。
ノード B からホストアダプタを取り外すかどうかを確認します。
取り外す必要がない場合は、手順 19 に進みます。
取り外す必要がある場合は、ノード B の電源を切ります。
ノード B からホストアダプタを取り外します。
ホストアダプタの取り外し方法については、サーバーおよびホストアダプタの付属マニュアルを参照してください。
起動が行われないようにして、ノード B に電源を入れます。
詳細については、サーバーの付属マニュアルを参照してください。
ノード B をクラスタモードで起動します。
{0} ok boot |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
すべてのクラスタノード上で、/devices エントリと /dev エントリを更新します。
# devfsadm -C # scdidadm -C |
手順 4 で特定したリソースグループとデバイスグループをノード B に返します。
# scswitch -z -g resource-group -h nodename # scswitch -z -D device-group-name -h nodename |
次の手順に従って、ホストとアレイをつなぐ光ファイバケーブルを交換します。 ここでは、障害が発生した光ファイバケーブル (交換する光ファイバケーブル) を含むノードを「ノード A」と呼びます。
ノード A 上で実行されているリソースグループとデバイスグループを特定します。
この情報を記録します。この情報は、手順 4 でこれらのノードにリソースグループとデバイスグループを返すときに必要になります。
# scstat |
すべてのリソースグループおよびデバイスグループをノード A から削除します。
# scswitch -S -h from-node |
ホストとアレイをつなぐ光ファイバケーブルを交換します。
手順 1 で特定したリソースグループとデバイスグループをノード A に返します。
# scswitch -z -g resource-group -h nodename # scswitch -z -D device-group-name -h nodename |
次の手順に従って、実行中のクラスタから障害の発生したホストアダプタを取り外し、交換します。 ここでは、障害が発生したホストアダプタ (交換するホストアダプタ) を含むノードを「ノード A」と呼びます。バックアップノードを「ノード B」と呼びます。
ノード A とノード B 上で実行されているリソースグループおよびデバイスグループを特定します。
この情報を記録します。この情報は、手順 8 でこれらのノードにリソースグループとデバイスグループを返すときに必要になります。
# scstat |
すべてのリソースグループおよびデバイスグループをノード A から削除します。
# scswitch -S -h from-node |
ノード A を停止します。
# shutdown -y -g0 -i0 |
ノード A の電源を切ります。
詳細については、サーバーの付属マニュアルを参照してください。
障害の発生したホストアダプタを交換します。
障害の発生したホストアダプタを交換する方法については、サービスプロバイダにお問い合わせください。
ノード A に電源を入れます。
詳細については、サーバーの付属マニュアルを参照してください。
ノード A をクラスタモードで起動します。
{0} ok boot |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
手順 1 で特定したリソースグループとデバイスグループをノード A に返します。
# scswitch -z -g resource-group -h nodename # scswitch -z -D device-group-name -h nodename |
詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。