この章では、次の項目について説明します。
この章で説明する手順は次のとおりです。
クラスタノードの追加または削除を行う場合は、Sun Cluster ソフトウェアを再構成する必要があります。クラスタの最初のインストールで、scinstall(1M) コマンドによりクラスタ内の「アクティブ」ノードの数と「潜在」ノードの数が指定されます。この節の作業は、潜在ノードの追加とアクティブノードの削除をする場合に行なってください。
潜在ノードとしてまだ指定されていなノードを追加するには、クラスタ全体を停止し、再構成する必要があります。
この作業は、最初のインストールですでに「潜在」と指定されたノードに対してだけ行なってください。
scinstall(1M) コマンドを使用して、追加するノード上に Sun Cluster 2.2 をインストールします。
『Sun Cluster 2.2 ソフトウェアのインストール』で説明しているインストール作業を行なってください。ただし、scinstall(1M) プロンプトに応答する場合は、次の点に注意してください。
アクティブノードの数を入力するプロンプトには、現在追加しようとしているノードも合計に含めてください。
新しいクラスタノード数は 3 つ以上になります。そのため、クラスタ構成データベース (CCD) の共有情報のプロンプトは表示されません。
(直接接続デバイスを使用した SSVM のみ) ノードロックポートのプロンプトでは、指定されたノードロックデバイスとポートを入力してください。
(SSVM のみ) 定足数デバイスのプロンプトでは、定足数デバイスを選択しないでください。代わりに、complex モードを選択し、続いて -N を選択してください。定足数デバイスの構成は、後で scconf -q コマンドを使用して行います。
(SSVM のみ) クラスタの分割動作を選択するために、ask を選択してください。
(SCI のみ) sm_config テンプレートファイルを更新して、新しいノードの情報を検証します。
この手順は、Ethernet 構成では不要です。
最初のインストールで「潜在」と指定されたノードは、それらのホスト名が _% という文字でコメントアウトされた状態で sm_config ファイルに含められています。アクティブにするノードの名前のコメントアウトを解除し、ファイル内の構成情報がノードの実際のレイアウトと一致しているか確認してください。
(SCI のみ) sm_config を実行します。
(SSVM のみ) ルートディスクグループを設定します。
詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』の SSVM と CVM の構成に関する付録を参照してください。
(SDS のみ) Solstice DiskSuite ディスクセットを設定します。
詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』の Solstice DiskSuite の構成に関する付録を参照してください。
すべてのノードに接続された直接接続デバイスがある場合には、新しいノードの直接接続ディスクフラグを設定します。
すべてのノードの cdb ファイルについて直接接続フラグを正しく設定するには、クラスタ内のすべてのノードで次のコマンドを実行してください。この例では、クラスタ名は sc-cluster です。
# scconf sc-cluster +D |
(SSVM のみ) 共通の定足数デバイスを選択します。
ボリュームマネージャが SSVM か CVM で、すべてのノードに接続された直接接続デバイスが存在する場合は、すべてのノードで次のコマンドを実行し、共有の定足数デバイスを選択します。
# scconf sc-cluster -q -D |
すべてのノードに接続された直接接続ディスクが存在しない場合は、定足数デバイスを新しいノードと共有するノードペアごとに次のコマンドを実行します。
# scconf -q |
(SSVM のみ) 新しいノードで、ノードロックポートを設定します。
直接接続ディスクをインストールしたばかりの場合は、すべてのノードでノードロックポートを設定します。
クラスタにすでに直接接続ディスクが含まれている場合は、新しいノードでだけ次のコマンドを実行してください。この例では、クラスタ名は sc-cluster で、端末集配信装置は cluster-tc です。
# scconf sc-cluster -t cluster-tc -l port_number |
クラスタを停止します。
すべてのノードで scconf -A コマンドを実行して、アクティブノードの数を更新します。
詳細は、scconf(1M) のマニュアルページを参照してください。この例では、クラスタ名は sc-cluster で、アクティブノードの新しい合計数は 3 です。
# scconf sc-cluster -A 3 |
(SSVM のみ) 共有 CCD が存在する場合は、これを削除します。共有 CCD は 2 ノードクラスタ以外では使用されません。
すべてのノードで次のコマンドを実行します。
# scconf sc-cluster -S none |
ftp をバイナリモードで使用し、既存のノードから新しいノードに cdb ファイルをコピーします。
cdb ファイルは、通常 /etc/opt/SUNWclus/conf/clustername.cdb です。
クラスタを起動します。
1 つのノード (任意) で、次のコマンドを実行します。
# scadmin startcluster phys-hahost sc-cluster |
続いて、ほかのすべてのノードで次のコマンドを実行します。
# scadmin startnode |
scconf(1M) コマンドを使用すると、scinstall(1M) コマンドによってクラスタソフトウェアのインストール時に設定されたアクティブノードの数を減らし、ノードを削除できます。この作業を行うには、クラスタ内のすべてのノードで scconf(1M) コマンドを実行する必要があります。
HA 構成の場合、削除するノードがマスターとなっているすべての論理ホストをスイッチオーバーします。
パラレルデータベース構成の場合、この手順は省略してください。
# haswitch phys-hahost3 hahost1 |
scconf -A コマンドを実行して、ノードを削除します。
scconf(1M) コマンドは、すべてのクラスタノードで実行してください。詳細は、scconf(1M) のマニュアルページを参照してください。この例では、クラスタ名は sc-cluster で、アクティブノードの新しい合計数は 2 です。
# scconf sc-cluster -A 2 |
クラスタノード名は、scconf(1M) コマンドで変更できます。詳細は、scconf(1M) のマニュアルページを参照してください。
現在のクラスタノード名を確認します。
アクティブクラスタメンバーである任意のノードで、scconf -p コマンドを実行してください。
# scconf clustername -p Current Configuration for Cluster clustername: Hosts in cluster: phys-hahost1 phys_hahost2 phys-hahost3 Private Network Interfaces for phys-hahost1: be0 be1 phys-hahost2: be0 be1 phys-hahost3: hme0 hme1 |
クラスタ内のすべてのノードで、scconf -h コマンドを実行します。
scconf(1M) コマンドは、すべてのノードで実行してください。詳細は、scconf(1M) のマニュアルページを参照してください。
# scconf -h clustername hostname0 [...hostname3] |
新しいノード名は、scconf -p コマンドで表示される順に指定する必要があります。たとえば、名前 phys-hahost3 を phys-opshost1 に変更するには、すべてのクラスタノードで次のコマンドを実行します。
# scconf -h sccluster phys-hahost1 phys-hahost2 phys-opshost1 |
クラスタ内のノードのプライベートネットワークインタフェースは、scconf(1M) コマンドで変更できます。詳細は、scconf(1M) のマニュアルページを参照してください。
クラスタ内のすべてのノードで、scconf(1M) コマンドを実行します。
次に例を示します。
# scconf planets -i mercury scid0 scid1 # scconf planets -i venus scid0 scid1 # scconf planets -i pluto scid0 scid1 # scconf planets -i jupiter scid0 scid1 |
これらのコマンドを実行した後、4 つのノード (mercury、venus、pluto、jupiter) はすべてインタフェース scid0 と scid1 を使用するようになります。
クラスタが稼動している間は、ifconfig(1M) コマンドを使用しないでください。このコマンドを実行すると、稼動中のシステムに予測できない状況をもたらすことがあります。
クラスタ構成情報は、scconf(1M) で出力できます。詳細は、scconf(1M) のマニュアルページを参照してください。
アクティブクラスタメンバーである任意のノードで、scconf(1M) コマンドを実行します。
次に例を示します。
# scconf planets -p |
次のようなメッセージが表示されます (プライベートネットワークの種類によっては scid ではなく hme と表示される場合がある)。
Current Configuration for Cluster planets: Hosts in cluster: mercury venus pluto jupiter Private Network Interfaces for mercury: scid0 scid1 venus: scid0 scid1 pluto: scid2 scid3 jupiter: scid2 scid3 |
論理ホストは、ノードが故障した場合にフェイルオーバーを行うオブジェクトです。各論理ホストは、1 つ以上のディスクグループ、再割り当てが可能な IP アドレス、論理ホスト名から構成されます。論理ホストが使用されるのは、HA データサービスによる構成の場合だけです。パラレルデータベース構成には論理ホストは存在しません。
論理ホストを追加または削除するには、論理ホストの情報を更新し、クラスタを再構成します。クラスタの最初の構成では、scinstall(1M) に論理ホスト構成の情報を指定します。クラスタが起動した後、この情報は次の 2 つの方法で変更できます。
scinstall(1M) コマンドを再実行する - scinstall(1M) コマンドは、scconf(1M) コマンドにメニューベースのインタフェースを提供します。論理ホスト構成の変更にはこの方法をお勧めします。scinstall(1M) は、root として実行する必要があります。
scconf(1M) コマンドを実行する - scconf(1M) コマンドを使用する場合は、オプションなどの詳細をマニュアルページで参照してください。複数のディスクグループを使用する論理ホストを設定する場合は、scconf(1M) コマンドを使用してこの構成を行う必要があります。
論理ホストを追加する作業の一部として、次の情報を指定する必要があります。
クラスタノードの主パブリックネットワークコントローラの名前
クラスタが二次パブリックサブネットに対してサービスを行うかどうか
現在のクラスタノードで Public Network Management (PNM) を初期化するかどうか。ネットワークコントローラを追加した場合と、新しい論理ホストを追加してコントローラ構成を変更した場合を除いて、PNM を初期化し直す必要はありません。
新しい論理ホストの名前
新しい論理ホストのデフォルトマスターの名前
論理ホストに含まれるディスクグループの名前
新しい論理ホストで自動フェイルバックを有効にするかどうか。自動フェイルバックは、この論理ホストがバックアップノードに対してフェイルオーバーを行う状況が発生した場合、障害が発生したノードがクラスタに戻された時点で、この論理ホストがデフォルトマスターによって再度制御されることを意味します。詳細は、「自動スイッチオーバーの無効化」を参照してください。
新しい論理ホストのディスクグループ名
作業を開始する前に、これらの事項について確認、決定を行なってください。新しい論理ホストが使用するディスクグループは、あらかじめ設定しておく必要があります。詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』のボリュームマネージャについて説明している付録を参照してください。
クラスタに論理ホストを追加するには、次の作業を行います。
scinstall(1M) コマンドを実行し、「Main Menu」から「Change」を選択します。
# scinstall Assuming a default cluster name of planets Note: Cluster planets is currently running. Install/Uninstall actions are disabled during cluster operation. <<Press return to continue>> Checking on installed package state ........................ ============ Main Menu ================= 1) Change - Modify cluster or data service configuration. 2) Verify - Verify installed package sets. 3) List - List installed package sets. 4) Quit - Quit this program. 5) Help - The help screen for this menu. Please choose one of the menu items: [5]: 1 |
「Change」メニューから「Logical Hosts」を選択します。
=========== Changes Menu ================ Choices from this menu: 1) Logical Hosts - Change the logical hosts configuration. 2) NAFO - Re-initialize the NAFO configuration. 3) Close - Close this menu to return to the Main Menu. 4) Quit - Exit this program. 5) Help - Show the Help screen. Please choose a displayed option: [5] 1 |
「Logical Hosts Configuration」メニューが表示されます。
「Logical Hosts Configuration」メニューから、「Add」を選択します。
====== Logical Hosts Configuration ====== 1) Add - Add a logical host to the cluster. 2) Remove - Remove a logical host from the cluster. 3) List - List the logical hosts in the cluster. 4) Close - Return to the previous menu. 5) Quit - Exit. Please choose an option: 1 |
新しい論理ホストについて、多数の質問が表示されます。
What is the primary public network controller for "phys-hahost1"? What is the primary public network controller for "phys-hahost2"? Does the cluster serve any secondary public subnets (yes/no) [no]? Re-initialize NAFO on "phys-hahost1" with one ctlr per group (yes/no)? What is the name of the new logical host? hahost1 What is the name of the default master for "hahost1"? phys-hahost1 Enable automatic failback for "hahost1" (yes/no) [no]? Disk group name for logical host "hahost1" [hahost1]? Is it okay to add logical host "hahost1" now (yes/no) [yes]? /etc/opt/SUNWcluster/conf/ha.cdb Checking node status... |
質問ごとに、必要な情報を応答します。
この作業の scinstall(1M) の部分が終わると、「Logical Hosts Configuration」メニューに戻ります。
新しい HA 管理ファイルシステムを作成し、/etc/opt/SUNWcluster/conf/hanfs/vfstab.logicalhost ファイルを更新します。
新しい論理ホストを追加する場合、管理情報を格納するために論理ホスト内のディスクグループにファイルシステムを設定する必要があります。HA 管理ファイルシステムの設定手順は、使用しているボリュームマネージャによって異なります。これらの手順については、『Sun Cluster 2.2 ソフトウェアのインストール』の付録で説明しています。
論理ホストにはホスト名の別名を使用しないでください。論理ホスト名の別名を使用する Sun Cluster ファイルシステムをマウントする NFSTM クライアントで、statd のロック回復問題が発生する可能性があります。
クラスタ構成から論理ホストを削除するには、クラスタが動作しており、その論理ホストにデータサービスが登録されていない状態でなければなりません。
削除する論理ホスト上で動作しているデータサービスアプリケーションをすべて停止します。
# hareg -n detaservice |
そのデータサービスの登録を解除します。
# hareg -u detaservice |
クラスタから論理ホストを削除します。
『Sun Cluster 2.2 ソフトウェアのインストール』の説明に従って scinstall(1M) コマンドを実行し、「Main Menu」から「Change」を選択します。
# scinstall Assuming a default cluster name of planets Note: Cluster planets is currently running. Install/Uninstall actions are disabled during cluster operation. <<Press return to continue>> Checking on installed package state ........................ ============ Main Menu ================= 1) Change - Modify cluster or data service configuration. 2) Verify - Verify installed package sets. 3) List - List installed package sets. 4) Quit - Quit this program. 5) Help - The help screen for this menu. Please choose one of the menu items: [5]: 1 |
「Change」メニューから、「Logical Hosts」を選択します。
=========== Changes Menu ================ Choices from this menu: 1) Logical Hosts - Change the logical hosts configuration. 2) NAFO - Re-initialize the NAFO configuration. 3) Close - Close this menu to return to the Main Menu. 4) Quit - Exit this program. 5) Help - Show the Help screen. Please choose a displayed option: [5] 1 |
「Logical Hosts Configuration」メニューが表示されます。
「Logical Hosts Configuration」メニューから、「Remove」を選択します
====== Logical Hosts Configuration ====== 1) Add - Add a logical host to the cluster. 2) Remove - Remove a logical host from the cluster. 3) List - List the logical hosts in the cluster. 4) Close - Return to the previous menu. 5) Quit - Exit. Please choose an option: 2 |
構成済みの論理ホストが表示されます。
構成済み論理ホストのリストから削除する論理ホストの名前を入力します。
The list of logical hosts is: hahost1 hahost2 Which one do you want to remove? hahost1 |
以上で作業が終了し、「Logical Hosts Configuration」メニューに戻ります。
クラスタ構成にその論理ホストが追加された時に作成された /etc/opt/SUNWcluster/conf/hanfs/vfstab.logicalhost ファイルを、root として削除します。
論理ホストの IP アドレスは、「論理ホストの追加と削除」に示された方法で、論理ホストを削除した後に新しい IP アドレスを使用して論理ホストを追加することによって変更できます。また、この節の作業を行なっても変更できます。
詳細は、scconf(1M) のマニュアルページを参照してください。
クラスタメンバーである 1 つのノードで、次の手順に従います。
すべてのノードで次のコマンドを実行し、構成ファイルからその論理ホストの既存のエントリを削除します。
# scconf clustername -L logicalhost -r |
すべてのクラスタノードで次のコマンドを実行し、論理ホスト名が同じで IP アドレスが異なる新しい論理ホストエントリを作成します。
# scconf clustername -L logicalhost -n nodelist -g diskgroup -i interfaces_and_IP |
haswitch(1M) コマンドを使用するか、scconf(1M) コマンドでクラスタメンバーシップを変更することにより、クラスタ再構成を強制的に行うことができます。
クラスタ再構成を強制的に行うには、クラスタメンバーである任意のノードで haswitch(1M) コマンドを実行します。次に例を示します。
# haswitch -r |
詳細は、haswitch(1M) のマニュアルページを参照してください。
この節では、Sun Cluster データサービスを構成する方法について説明します。これらのデータサービスは、通常、クラスタインストールの一環として論理ホストと共に構成されます。しかし、インストール後、論理ホストとデータサービスを構成することも可能です。データサービスの詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
この節で使用しているコマンドはすべて、クラスタメンバーであるどのノードからでも実行できます。このノードは、指定された論理ホストのマスターになれなくても、指定されたデータサービスを実行できなくてもかまいません。これらのコマンドは、クラスタメンバーシップにノードが 1 つしか存在しなくても実行できます。
この節で使用しているコマンドは CCD を更新します。これは、定足数に満たない場合でも同様です。そのため、不正な手順でノードが停止されて起動された場合は、CCD に対する更新が消失する場合があります。したがって、クラスタから最後に切り離されるノードは、scadmin startcluster コマンドでクラスタに戻される最初のノードでなければなりません。CCD の詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
次の作業が完了していることを確認します。
データサービスを実行する論理ホストが構成されている。論理ホストの構成方法については、「論理ホストの追加と削除」を参照してください。
必要なディスクグループ、論理ボリューム、ファイルシステムが設定されている。詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
HA 管理ファイルシステムと vfstab.logicalhost ファイルが設定されている。この作業は、ボリュームマネージャによって異なります。ボリュームマネージャの構成方法については、『Sun Cluster 2.2 ソフトウェアのインストール』の付録を参照してください。
データサービスを登録します。
論理ホストに対応する Sun Cluster データサービスを登録します。
# hareg -s -r dataservice [-h logicalhost] |
このコマンドは、データサービスがすでにインストールされており、そのメソッドが使用可能であることを前提としています。
hareg -r コマンドで -h オプションが指定されると、データサービスは引数 logicalhost で指定される論理ホスト上でだけ構成されます。-h オプションが指定されないと、データサービスは現在存在するすべての論理ホスト上で構成されます。詳細は、hareg(1M) のマニュアルページを参照してください。
データサービスの登録の後で作成される論理ホストのいずれかにデータサービスが関連付けられる場合は、すべてのクラスタノードで scconf -s を実行してデータサービスに対応する論理ホストのセットを拡張してください。
データサービスを起動します。
# hareg -y dataservice |
Sun Cluster データサービスの構成を解除するには、この作業を行なってください。データサービスの詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
構成を解除するデータサービスアプリケーションをすべて停止します。
データサービスアプリケーションの通常の停止作業を行なってください。
データサービスがデータベース管理システム (DBMS) の場合は、障害モニターをすべて停止します。
すべての論理ホストで、データサービスを停止します。
# hareg -n dataservice |
データサービスの登録を解除します。
# hareg -u dataservice |
hareg -u コマンドが失敗すると、クラスタ構成データベース (CCD) が矛盾した状態になることがあります。このような場合は、すべてのクラスタノードで scconf clustername -R dataservice を実行し、CCD から強制的にデータサービスを削除してください。
(省略可能) クラスタ構成から論理ホストを削除します。
クラスタ構成から論理ホストを削除できるのは、すべてのデータサービスがその論理ホストと対応していない場合だけです。
論理ホストを削除するには、次に示すいずれかの方法を使用してください。
次の scconf(1M) コマンドを、クラスタメンバーである 1 つのノードで実行します。
# scconf clustername -L logicalhost -r |
scinstall(1M) コマンドを、「論理ホストの追加と削除」で説明している方法で実行します。scinstall(1M) を使用する場合は、手順 6で示しているクラスタ再構成を行う必要はありません。
haswitch(1M) コマンドを使用して、クラスタ再構成を行います。
# haswitch -r |
必要に応じて、削除した論理ホストに対応した vfstab.logicalhost と dfstab.logicalhost ファイルの削除または名前変更を行い、そのボリュームとファイルシステムが占めている領域を開放できます。これらのファイルは、scconf(1M) による削除作業では削除されません。
/etc/clusters ファイルには、ローカルネームドメイン内の既知のクラスタに関する情報が含まれます。このファイルは、クラスタ名をクラスタ内のホスト名リストに割り当てることができます。NIS または NIS+ マップとして作成することも、/etc ディレクトリにローカルに作成することもできます。
/etc/clusters ファイルの更新が必要になるのは、次の場合だけです。
NIS マップと NIS+ マップの詳細は、NIS/NIS+ のシステム管理マニュアルを参照してください。/etc/clusters ファイルの作成については、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。NIS/NIS+ ファイルの変更は、NIS/NIS+ サーバーで行う必要があります。
すべてのノードのクラスタ名と物理ホスト名を追加するには、/etc/clusters ファイルを編集します。
たとえば、ノード 0 phys-hahost1、ノード 1 phys-hahost2、ノード 2 phys-hahost3、ノード 3 phys-hahost4 から構成される hacluster というクラスタを作成するには、次のエントリを追加します。
# Sun Enterprise Cluster nodes hacluster phys-hahost1 phys-hahost2 phys-hahost3 phys-hahost4 |
各クラスタノードで、/etc/clusters ファイルを同様に変更します。
NIS+ 環境では、clusters テーブルを作成する必要があります。このテーブルのエントリは、/etc/clusters ファイルのエントリと同じです。
たとえば、NIS+ 環境の mydomain というドメインに clusters テーブルを作成するには、次のコマンドを使用します。
# nistbladm -c key-value key=SI value= clusters.mydomain. |
nistbladm コマンドの末尾にあるピリオド (.) は必須です。
serialports ファイルは、端末集配信装置と、ホストコンソールの接続先である端末集配信装置シリアルポートにホスト名を対応付けるものです。このファイルは、NIS または NIS+ マップとして作成することも、/etc ディレクトリにローカルに作成することもできます。
serialports ファイルの更新が必要になるのは、次の場合だけです。
ホスト名を変更する場合
端末集配信装置の名前を変更する場合
端末集配信装置上のホストのポート番号を変更する場合
この端末集配信装置にホストをさらに追加する場合
クラスタノードをさらに追加する場合
/etc/serialports ファイルの作成については、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。NIS マップと NIS+ マップの詳細は、NIS/NIS+ のシステム管理マニュアルを参照してください。
root として、/etc ディレクトリに serialports ファイルを作成します。
Sun Enterprise 10000 システムでは、serialports ファイルに hostname sspname 23 と入力します。ほかのハードウェアシステムでは、serialports ファイルに hostname terminal_concentrator serial_port と入力します。
Sun Enterprise 10000 の場合
# Sun Enterprise Cluster nodes phys-hahost1 sspname 23 phys-hahost2 sspname 23 phys-hahost3 sspname 23 phys-hahost4 sspname 23 |
その他のシステムの場合
# Sun Enterprise Cluster nodes phys-hahost1 hacluster-tc 5002 phys-hahost2 hacluster-tc 5003 phys-hahost3 hacluster-tc 5004 phys-hahost4 hacluster-tc 5005 |
NIS+ 環境では、serialports テーブルを作成する必要があります。このテーブルのエントリは、/etc/serialports ファイルのエントリと同じです。
たとえば、NIS+ 環境の mydomain というドメインに serialports テーブルを作成するには、次のコマンドを使用します。
# nistbladm -c key-value key=SI value=clusters.mydomain. |
nistbladm コマンドの末尾にあるピリオド (.) は必須です。
Sun Cluster ソフトウェアをインストールする場合は、端末集配信装置 (TC) またはシステムサービスプロセッサ (SSP) についての情報が必要です。この情報は、クラスタ構成データベース (CCD) に格納されています。
この情報は次の目的で使用されます。
(障害防御における場合と同様に) ハングアップしたノードを強制的に停止する
パーティション分割されたノードがクラスタに加わることを防ぐクラスタ全体のロック機構を実装する
この 2 つの機構は、直接接続された記憶装置を持つ 4 ノード構成のクラスタにおけるデータの完全性を守る役割を果たします。
次の作業で説明しているように、特定のノードに対応する TC 情報または SSP 情報を変更するには、scconf(1M) コマンドを使用します。
TC 情報または SSP 情報を変更するには、すべてのクラスタノードで scconf(1M) コマンドを実行します。この場合、ノードごとに該当する新しい情報を入力する必要があります。次の例は、情報変更の種類ごとに使用できる scconf(1M) コマンド構文を示しています。
ノードのアーキテクチャータイプと IP アドレス - クラスタ名、ホスト名、新しいアーキテクチャータイプ、新しい IP アドレスを指定します。
# scconf clustername -H hostname -d E10000 -t new_ip_address |
同じ TC に複数のホストを接続できます。-H オプションは、コマンド行に指定されたホストに対応する情報にだけ影響します。
TC または SSP のパスワード - クラスタ名、IP アドレス、新しいパスワードを指定します。
# scconf clustername -t ip_address -P ip_address (129.34.123.51) Password: |
SSP コンソールのポート番号 - クラスタ名、ホスト名、新しいポート番号を指定します。
端末集配信装置が使用されている場合は、未使用の TC ポート (1 〜 N) を指定してください。
SSP が使用されている場合は、値 -1 を指定する必要があります。
# scconf clustername -H hostname -p new_port_number |
TC 名または IP アドレス - クラスタ名、ホスト名、新しい TC 名または IP アドレスを指定します。
# scconf clustername -H hostname -t new_tc_name|new_ip_address |
TC 情報または SSP 情報の変更についての詳細は、scconf(1M) のマニュアルページと第 8 章「端末集配信装置の管理」を参照してください。
定足数デバイスは、SSVM 構成と CVM 構成にだけ使用されます。定足数デバイスは、Solstice DiskSuite 構成には使用されません。
定足数デバイスをディスクまたはコントローラに変更するには、scconf -q コマンドを使用します。このオプションは、定足数デバイスがサービスを必要とする場合に便利です。詳細は、scconf(1M) のマニュアルページを参照してください。
定足数デバイスがディスクの場合、ディスクアドレス (cxtydzs2 の形式で示される) が変わるたびに scconf -q コマンドを使用する必要があります。これは、ディスクのシリアル番号が保存されている場合も同様です。ディスクアドレスの変化は、ドライブコントローラの SBus スロットが変わる場合に起きる可能性があります。
クラスタが稼動している間は、scconf -q オプションを使用して定足数デバイストポロジを変更しないでください。2 つのクラスタノード (クラスタ内のノードペア) 間では定足数デバイスの追加や削除は行えません。
それまでに定足数デバイスが存在しない場合、定足数デバイスの追加は行えません。
現在定足数デバイスが存在する場合、「定足数デバイスなし」は指定できません。しかし、scconf -q オプションを使用して、稼動中のクラスタ内の定足数デバイスを変更することは可能です (あるディスクから別のディスクに変更するなど)。
デバイスのサービスを開始する前に、すべてのクラスタノードで scconf -q コマンドを実行して定足数デバイスを別のデバイスに変更できます。
たとえば、ノード phys-hahost1 と phys-hahost2 のクラスタ haclust の定足数デバイスを変更するには、次のように scconf(1M) コマンドを実行します。
# scconf haclust -q phys-hahost1 phys-hahost2 Select quorum device for nodes 0 (phys-hahost1) and 1 (phys-hahost2). Type the number corresponding to the desired selection. For example: 1<CR> 1) DISK:c2t2d0s2:01943825 2) DISK:c2t3d0s2:09064321 3) DISK:c2t4d0s2:02171369 4) DISK:c2t5d0s2:02149886 5) DISK:c2t8d0s2:09062992 6) DISK:c2t9d0s2:02166472 7) DISK:c3t2d0s2:02183692 8) DISK:c3t3d0s2:02183488 9) DISK:c3t4d0s2:02160277 10) DISK:c3t5d0s2:02166396 11) DISK:c3t8d0s2:02164352 12) DISK:c3t9d0s2:02164312 Quorum device: 12 |
-q オプションは、各ノードに接続されたデバイスの一覧を調べ、2 つのノードが共有しているデバイスを表示します。この一覧から、定足数デバイスを選択できます。
遠隔ホストに接続されたデバイスを検証できるように、ローカルの /.rhosts ファイルは rsh(1) 権限を与えるように変更されます。この権限は、このコマンドが完了すると無効になります。
この動作は、このコマンドがすべてのノードから同時に実行される場合だけ発生します。遠隔の root アクセス機能が必要ない場合は、-m オプションを使用してください。
この一覧の SSA コントローラまたはディスクを定足数デバイスとして選択できます。
SSA コントローラを選択すると、そのコントローラ内のディスクの一覧が表示されます。
手順 2で SSA コントローラを選択した場合、その SSA のディスクを定足数デバイスとして選択できます。
この手順でディスクを選択しないと、手順 2 で選択された SSA コントローラが定足数デバイスとなります。
-q オプションは、メンバーシップに含まれないほかのノードが原因で、ノードが定足数デバイスを予約していないかどうかも確認します。予約している場合、-q オプションは、古い定足数デバイスの予約を解放し、新しい定足数デバイスを予約します。
scconf -q コマンドを正常に実行するためには、指定されたすべてのノードを起動する必要があります。起動されないノードがあると、このコマンドはローカルノード上のすべてのデバイスを検証し、そのリストを表示します。定足数デバイスには、必ず共有デバイスを選択してください。
定足数デバイスとして使用するデバイスの名前がわかる場合は、-m オプションを使用して新しいデバイスを指定してください。
# scconf clustername -q -m quorum-device hostname1 hostname2 |
定足数デバイスは、SSA コントローラの固有の名称 (World Wide Name: WWN)、SSA ディスクのディスク識別子 (WWN.disk-serial-id)、または SSA 以外のディスクのディスク識別子 (disk-address:disk-serial-id) で指定できます。disk-address は、cxtydzs2 という形式で指定します。SSA ディスクまたは SSA 以外のディスクのシリアル番号を調べるには、finddevices(1M) コマンドを使用します。
すべてのノードが共通定足数デバイスを共有する、3 ノード以上から構成されるクラスタでは、-q -D オプションを使用して新しい共通定足数デバイスを指定できます。
# scconf clustername -q -D |
クラスタ内のホストはすべて共通デバイスを共有するため、ホスト一覧の指定は不要です。
これは、各ホストに接続されたデバイスの一覧を検証し、続いて共有されたデバイスの一覧を示す対話型のオプションです。この一覧から定足数デバイスを選択してください。
scconf -q -D コマンドを正常に実行するためには、クラスタ内に定義されたすべてのアクティブホストを起動する必要があります。起動されないノードがあると、このコマンドはローカルホスト上のすべてのデバイスを検証し、そのリストを表示します。定足数デバイスには、必ず共有デバイスを選択してください。
-q -D オプションは、クラスタに含まれないほかのノードが原因で、クラスタのノードが定足数デバイスを予約していないかどうかも確認します。予約している場合、古い定足数デバイスの予約は解放され、新しい定足数デバイスが予約されます。
このコマンドが cconsole と crlogin GUI インタフェースを介してすべてのノードから同時に実行されると、rsh(1) 権限を与えるようにローカルの /.rhosts ファイルが変更されます。これにより、遠隔ホストに接続されたデバイスの検証が行えるようになります。この権限は、このコマンドが完了すると無効になります。
遠隔の root アクセスが必要ない場合は、-m オプションを追加できます。定足数デバイスを構成するこのオプションは、指定されたノードに対するコマンドの最後の引数として指定します。
# scconf clustername -q -D -m quorum-device |
定足数デバイスは、cxtydzs2:disk-serial-ID という形式のディスク識別子です。ディスクのシリアル番号を調べるには、finddevices(1M) コマンドを使用します。
Sun Cluster では、クラスタのメンバーシップの変化に応じて、HA フレームワークの論理ホストが交替されるクラスタ遷移ステップにタイムアウトを構成できます。このタイムアウトは、各ノードにおいて多数のデータサービスから成る構成を効果的に処理するように、必要に応じて調整してください。タイムアウトが非常に大きなデフォルト値に設定される場合を除いて、さまざまな構成に一定のタイムアウト値を使用することは実用的ではありません。
タイムアウトを調整する場合、次の 2 つの事項を必ず考慮してください。
クラスタノードごとの論理ホストの数
論理ホスト上のデータサービスの数
個々のインストールに適した値を推測するのは困難です。これらの値は、試行錯誤によって決定するしかありません。ガイドラインとしては、各クラスタ遷移ステップの先頭と最後についてのクラスタコンソールメッセージを使用できます。これらのガイドラインから、ステップのおおよその実行時間を推測できます。
タイムアウトは、最悪の状況とみなす必要があります。クラスタのタイムアウトを構成する場合は、1 つのクラスタノードが一度にマスターできる論理ホストの最大数について考慮してください。
たとえば、N+1 構成では、スタンバイノードはほかのクラスタノードの論理ノードをすべてマスターできます。この場合、再構成タイムアウトは、クラスタに構成されているすべての論理ホストをマスターできるだけの十分な余裕がなければなりません。
scconf -T コマンドを使用して、クラスタ再構成タイムアウトを調整します。
たとえば、構成可能な遷移ステップタイムアウト値を 500 秒に変更するには、すべてのクラスタノードで次のコマンドを実行します。
# scconf clustername -T 500 |
これらのステップのデフォルト値は 720 秒です。現在のタイムアウト値を確認するには、ssconf -p コマンドを使用してください。
これらのステップにすべての論理ホストをマスターする十分な時間がない場合は、クラスタコンソールにエラーメッセージが表示されます。
再構成ステップでは、単一の論理ホストをマスターするのにかかる時間は、各論理ホストに構成されているデータサービスの数によって異なります。論理ホストをマスターする十分な時間がない (つまり loghost_timeout パラメータが小さすぎる) 場合は、コンソールに次のようなメッセージが表示されます。
ID[SUNWcluster.ccd.ccdd.5001]: error freeze cmd = command /opt/SUNWcluster/bin/loghost_sync timed out. |
この例では、クラスタフレームワークは、論理ホストの放棄を試みることによって、システムを一貫した状態に戻そうと「最善の努力」をしています。この試みが失敗すると、ノードは矛盾を防ぐためにクラスタから停止することがあります。
scconf -l オプションを使用して、loghost_timeout パラメータを調整します。
デフォルトは 180 秒です。
再構成ステップのタイムアウトは、loghost_timeout 値より小さくはできません。loghost_timeout 値よりも小さい値が指定されると、エラーが発生し、クラスタ構成ファイルは変更されません。この条件は、scconf -T または scconf -l オプションで確認できます。これらのタイムアウトのどちらかが 100 秒以下に設定されると、警告が表示されます。