この節では、すでに判明しているマニュアル、オンラインヘルプ、またはマニュアルページの間違いや抜け、およびこれらの問題を修正するための手順を説明します。
SunPlex Manager のオンラインヘルプにある以下の説明は正確ではありません。これは、 Oracle データサービスのインストール手順に記載されています。以下に訂正内容を示します。
(誤)
Note: If no entries exist for the shmsys and semsys variables in the /etc/system file when SunPlex Manager packages are installed, default values for these variables are automatically put in the /etc/system file. The system must then be rebooted. Check Oracle installation documentation to verify that these values are appropriate for your database.
注:SunPlex Manager パッケージをインストールするときに、/etc/system ファイルに shmsys と semsys 変数用のエントリが存在しない場合、これらの変数のデフォルト値は自動的に /etc/system ファイルに挿入されます。この場合には、システムを再起動する必要があります。使用するデータベースにとってデフォルト値が適切であるかどうかを、Oracle のインストールマニュアルで確認してください。
(正)
Note: If no entries exist for the shmsys and semsys variables in the /etc/system file when you install the Oracle data service, default values for these variables can be automatically put in the /etc/system file. The system must then be rebooted. Check Oracle installation documentation to verify that these values are appropriate for your database.
注:Oracle データサービスをインストールするときに、/etc/system ファイルに shmsys と semsys 変数用のエントリが存在しない場合、これらの変数のデフォルト値は自動的に /etc/system ファイルに挿入されます。この場合には、システムを再起動する必要があります。使用するデータベースにとってデフォルト値が適切であるかどうかを、Oracle のインストールマニュアルで確認してください。
『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Sun Cluster HA for Oracle パッケージのインストール」の導入部分に、64 ビット Oracle で Sun Cluster HA for Oracle を実行しているクラスタにおいて、ユーザーに必要な追加のパッケージについて説明されていません。次に、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Sun Cluster HA for Oracle パッケージのインストール」の導入部分の正しい情報を示します。
構成によって異なりますが、scinstall(1M) ユーティリティを使用して、次のパッケージの片方または両方をクラスタにインストールします。このとき、非対話型の scinstall には -s オプション (すべてのデータサービスパッケージをインストールする) を指定しないでください。
SUNWscor:32 ビット Oracle または 64 ビット Oracle で Sun Cluster HA for Oracle を実行しているクラスタ
SUNWscorx:64 ビット Oracle で Sun Cluster HA for Oracle を実行しているクラスタ
SUNWscor は SUNWscorx の前提条件となるパッケージです。
Sun Cluster 初期インストールの一部として SUNWscor データサービスパッケージをインストールしている場合は、「Sun Cluster HA for Oracle の登録と構成」に進みます。そうでない場合は、次の SUNWscor と SUNWscorx パッケージをインストールする手順に進みます。
Sun Cluster ソフトウェア上の VERITAS Volume Manager では、単一のルートディスクグループはディスクタイプとしてはサポートされません。結果として、『Sun Cluster 3.0 12/01 のシステム管理』の手順「非カプセル化ルート(/)ファイルシステムを復元する(VERITAS Volume Manager)」を実行する場合、手順 9 (ルートディスクグループ (rootdg) がルートディスクの単一スライス上に存在するかどうかを判断する) を省略する必要があります。つまり、手順 1 から手順 8 までを実行し、手順 9 を省略し、手順 10 から終わりまで実行します。
この節では、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Sun Cluster 3.0 Update リリースにアップグレードする」の手順 8 への修正を示します。
(省略可能) (任意) Solaris 8 ソフトウェアをアップグレードします。
/etc/vfstab ファイルにあるすべてのグローバルデバイス用エントリを一時的にコメントアウトします。
この作業は、Solaris がアップグレード中にグローバルデバイスをマウントしないようにするために行います。
アップグレードするノードを停止します。
# shutdown -y -g0 ok |
アップグレードしたいバージョンの Solaris 8 Maintenance Update のインストールガイドにある指示に従います。
再起動するかどうかのプロンプトが表示されたときには、ノードを再起動してはなりません。
/a/etc/vfstab ファイルの手順 aでコメントアウトしたグローバルデバイス用エントリをコメント解除します。
Solaris ソフトウェアのパッチとハードウェア関連のパッチをすべてインストールし、ハードウェアパッチに含まれる必須ファームウェアをすべてダウンロードします。
パッチが再起動を必要とする場合は、手順 fで説明しているとおりにノードを非クラスタモードで再起動します。
ノードを非クラスタモードで再起動します。
コマンドには、2 つのダッシュ (--) と 2 つの二重引用符 ("") を使用します。
# reboot -- "-x" |
次のアップグレード手順には、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の手順への変更および修正が記載されています。
Sun Cluster 2.2 から Sun Cluster 3.0 5/02 ソフトウェアにアップグレードするには、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』に記載されている手順の代わりに、次の手順を実行します。
クラスタノードでスーパーユーザーになります。
CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.0 12/01 CD-ROM を挿入します。
ボリュームデーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0_u3 ディレクトリにマウントされます。
/cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages ディレクトリに移動します。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages |
ボリューム管理ソフトウェアが Solstice DiskSuite の場合は、各ノードに最新の Solstice DiskSuite メディエータパッケージ (SUNWmdm) をインストールします。
メディエータを再構成します。
メディエータホストの追加先のディスクセットの所有権を持つノードを指定します。
# metaset -s setname |
ディスクセット名を指定します。
どのノードも所有権を持っていない場合は、ディスクセットの所有権を取得します。
# metaset -s setname -t |
ディスクセットの所有権を取得します。
メディエータを再度作成します。
# metaset -s setname -a -m mediator-host-list |
ディスクセットに追加します。
追加するノードの名前をディスクセットのメディエータホストとして指定します。
各ディスクセットごとにこの手順を繰り返します。
各ノード上で、rpc.pfmd デーモンを停止します。
# /etc/init.d/initpmf stop |
最初のノードを Sun Cluster 3.0 5/02 ソフトウェアにアップグレードします。
以降の手順では、このノードのことを最初のノード (最初にインストールしたノード) と呼びます。
アップグレードする最初のノード上で、/cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools ディレクトリに移動します。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools |
クラスタソフトウェアフレームワークをアップグレードします。
# ./scinstall -u begin -F |
このノードが、クラスタ内でインストールされる最初のノードであることを指定します。
詳細については、scinstall(1M) のマニュアルページを参照してください。
任意の Sun Cluster パッチを最初のノードにインストールします。
パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。
ノードを再起動します。
# shutdown -g0 -y -i6 |
最初のノードが再起動してクラスタモードになったときに、クラスタが設定されます。
2 番目のノードを Sun Cluster 3.0 5/02 ソフトウェアにアップグレードします。
2 番目のノード上で、/cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools ディレクトリに移動します。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools |
クラスタソフトウェアフレームワークをアップグレードします。
# ./scinstall -u begin -N node1 |
クラスタ内で 2 番目にインストールされるノード名ではなく、最初にインストールされるノード名を指定します。
詳細については、scinstall(1M) のマニュアルページを参照してください。
任意の Sun Cluster パッチを 2 番目のノードにインストールします。
パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。
ノードを再起動します。
# shutdown -g0 -y -i6 |
両方のノードが再起動したら、両方のノードがクラスタメンバーになっていることをいずれかのノードで確認します。
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
クラスタ状態の表示方法の詳細については、scstat(1M) のマニュアルページを参照してください。
定足数デバイスにする共有ディスクを選択します。
両方のノードで共有されている任意のディスクを定足数デバイスとして使用できます。どちらかのノードから scdidadm(1M) コマンドを実行し、共有ディスクのデバイス ID (DID) 名を確認します。このデバイス名は、手順 5 で、scinstall の -q globaldev=DIDname オプションで指定します。
# scdidadm -L |
共有される定足数デバイスを構成します。
scsetup(1M) ユーティリティーを起動します。
# scsetup |
「Initial Cluster Setup」画面が表示されます。
定足数の設定処理が中断されたり、正常に終了しなかった場合は、scsetup を再度実行してください。
「Do you want to add any quorum disks?」というプロンプトに、共有される定足数デバイスを構成します。
2 ノードクラスタは、共有定足数デバイスが構成されるまでインストールモードのままです。scsetup ユーティリティーが定足数デバイスを構成し終わると、「Command completed successfully」というメッセージが表示されます。
「Is it okay to reset "installmode"?」というプロンプトに、「Yes」とこたえます。
scsetup ユーティリティーによって、クラスタの定足数構成と投票数 (quorum vote count) が設定されたあと、「Cluster initialization is complete」というメッセージが表示され、「Main Menu」に戻ります。
scsetup ユーティリティーを終了します。
任意のノードから、デバイスとノードの定足数構成を確認します。
このコマンドを実行するためにスーパーユーザーになる必要はありません。
% scstat -q |
任意のノードから、クラスタインストールモードが無効になっていることを確認します。
このコマンドを実行するためにスーパーユーザーになる必要はありません。
% scconf -p | grep "Cluster install mode:" Cluster install mode: disabled |
ディイレクトリパスを更新します。
『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「root の環境を更新する」に進みます。
次の例に、2 ノードクラスタを Sun Cluster 2.2 から Sun Cluster 3.0 5/02 ソフトウェアにアップグレードする際の開始処理を示します。クラスタノード名は、最初にインストールされたノードである phys-schost-1 と、phys-schost-1 の設定後にクラスタに結合する phys-schost-2 です。ボリューム管理ソフトウェアは Solstice DiskSuite で、両方のノードがディスクセット schost-1 のメディエータホストとして使用されます。
(各ノードに最新の Solstice DiskSuite メディエータパッケージをインストールする) # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages # pkgadd -d . SUNWmdm (メディエータを復元する) # metaset -s schost-1 -t # metaset -s schost-1 -a -m phys-schost-1 phys-schost-2 (rpc.pmfd デーモンをシャットダウンする) # /etc/init.d/initpmf stop (最初のノードでアップグレードを開始し、再起動する) phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools phys-schost-1# ./scinstall -u begin -F phys-schost-1# shutdown -g0 -y -i6 (2 番目のノードでアップグレードを開始し、再起動する) phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools phys-schost-2# ./scinstall -u begin -N phys-schost-1 phys-schost-2# shutdown -g0 -y -i6 (クラスタのメンバーシップを確認する) # scstat (共有ディスクを選択し、定足数デバイスとして構成する) # scdidadm -L # scsetup (「Quorum」>「Add a quorum disk」を選択する) (定足数デバイスが構成されていることを確認する) # scstat -q (クラスタがもはやインストールモードでないことを確認する) % scconf -p | grep "Cluster install mode:" Cluster install mode: disabled |
次の手順で、「クラスタソフトウェアパッケージをアップグレードする」で開始した scinstall(1M) によるアップグレードプロセスを完了します。クラスタの各ノードで次の手順を実行します。
クラスタの各ノードのスーパーユーザーになります。
ボリューム管理ソフトウェアは VxVM ですか 。
VxVM ではない場合は、手順 3 に進みます。
VxVM である場合は、VxVM と任意の VxVM パッチをインストールして、ルートディスクグループ (rootdg) を新しいインストール用に作成します。
VxVM をインストールして、ルートディスクをカプセル化するには、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「VERITAS Volume Manager ソフトウェアをインストールしてルートディスク をカプセル化する」の手順を実行します。ルートディスクをミラー化するには、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「カプセル化されたルートディスクをミラー化する」を実行します。
VxVM をインストールして、rootdg をローカルのルート以外のディスク上に作成するには、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「VERITAS Volume Manager ソフトウェアだけをインストールする」と「ルート以外のrootdg ディスクグループを作成する」の手順を実行します。
アップグレードするのは Sun Cluster HA for NFS ですか。
Sun Cluster HA for NFS である場合は、手順 4 に進みます。
Sun Cluster HA for NFS ではない場合は、手順 5 に進みます。
Sun Cluster 3.0 ソフトウェアのアップグレードを終了して、Sun Cluster HA for NFS の構成を変換します。
アップグレードしているのが Sun Cluster HA for NFS でない場合は、代わりに、手順 5 を実行します。
ノードの CD-ROMドライブに Sun Cluster 3.0 Agents 5/02 CD-ROM を挿入します。
この手順では、ボリュームデーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されていることを想定しています。
そのノードでのクラスタソフトウェアのアップグレードを完了します。
# scinstall -u finish -q globaldev=DIDname ¥ -d /cdrom/scdataservices_3_0_u3 -s nfs |
定足数デバイスのデバイスID (DID) 名を指定します。
CD-ROM イメージのディレクトリの場所を指定します。
構成する Sun Cluster HA for NFS データサービス名を指定します。
次のようなエラーメッセージが表示されることがありますが、無視してください。
** Installing Sun Cluster - Highly Available NFS Server ** Skipping "SUNWscnfs" - already installed |
CD-ROM を取り出します。
もう一方のノードに対して、手順 a から 手順 c までを繰り返します。
両方のノードで作業が完了すると、クラスタインストールモードが解除され、定足数の確立に使用されるすべての票が割り当てられます。
手順 6 に進みます。
各ノード上で、Sun Cluster 3.0 ソフトウェアのアップグレードを終了します。
アップグレードしているのが Sun Cluster HA for NFS である場合は、代わりに、手順 4 を実行します。
# scinstall -u finish -q globaldev=DIDname |
定足数デバイスのデバイスID (DID) 名を指定します。
Sun Cluster HA for NFS 以外のデータサービスをアップグレードしている場合は、これらのデータサービス用のリソースを新しいインストール用に構成します。
手順については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。
ボリューム管理ソフトウェアが Solstice DiskSuite の場合は、いずれかのノードから、すでに存在しているデバイスグループをオンラインにします。
# scswitch -z -D disk-device-group -h node |
スイッチを実行します。
ディスクデバイスグループの名前を指定します。これは、Solstice DiskSuite ソフトウェアのディスクセット名と同じです。
ディスクデバイスグループの主ノードとして動作するクラスタノード名を指定します。
いずれかのノードから、すでに存在しているデータサービスリソースグループをオンラインにします。
この時点で、Sun Cluster 2.2 論理ホストが Sun Cluster 3.0 5/02 リソースグループに変換され、論理ホスト名に接尾辞 -lh が追加されます。たとえば、lhost-1 という名前の論理ホストは、lhost-1-lh という名前のリソースグループにアップグレードされます。変換したこれらのリソースグループ名は、次のコマンドで使用します。
# scswitch -z -g resource-group -h node |
オンラインにするリソースグループ名を指定します。
scrgadm -p コマンドを使用し、クラスタ内のすべてのリソースタイプとリソースグループの一覧を表示できます。scrgadm -pv コマンドを使用すると、この一覧をより詳しく表示できます。
Sun Management Center を使用して Sun Cluster 構成を監視する場合は、Sun Management Center 用のSun Cluster モジュールをインストールします。
すべてのノードがクラスタに結合していることを確認します。
『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「クラスタメンバーシップを確認する」に進みます。
次の例に、2 ノードクラスタを Sun Cluster 2.2 から Sun Cluster 3.0 5/02 ソフトウェアにアップグレードする際の終了処理を示します。クラスタノード名は phys-schost-1 と phys-schost-2 で、デバイスグループ名は -schost-1 と dg-schost-2 で、データサービスリソースグループ名は lh-schost-1 と lh-schost-2 です。scinstall コマンドは自動的に Sun Cluster HA for NFS 構成を変換します。
(各ノードのアップグレードを完了する) phys-schost-1# scinstall -u finish -q globaldev=d1 ¥ -d /cdrom/scdataservices_3_0_u3 -s nfs phys-schost-2# scinstall -u finish -q globaldev=d1 ¥ -d /cdrom/scdataservices_3_0_u3 -s nfs (各ノードでデバイスグループとデータサービスリソースグループをオンラインにする) phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2 |
『Sun Cluster 3.0 12/01 のシステム管理』の「ノードを保守状態から戻す」の手順は 2 ノードクラスタには適用されません。2 ノードクラスタに適切な手順については、次のリリースで検証される予定です。
次の段落は、scgdevs コマンドの動作を明確に記述します。この情報は現在、scgdevs(1M) のマニュアルページには記載されていません。
新しい情報:
ローカルノードから呼び出された scgdevs(1M) は、その作業をリモートノード上で非同期的に実行します。したがって、ローカルノード上でコマンドが完了しても、必ずしも、その作業がクラスタ規模で完了しているとは限りません。
「名前」節には間違いがあります。「名前」節は次のようになる必要があります。
sap_ci、SUNW.sap_ci、および SUNW.sap_ci_v2 - Sun Cluster HA for SAP 中央インスタンス用のリソースタイプの実装。
「機能説明」節には間違いがあります。「機能説明」節は次のようになる必要があります。
Resource Group Manager (RGM) は Sun Cluster ソフトウェア用の SAP データサービスを管理します。Sun Cluster HA for SAP 中央インスタンスを論理ホスト名リソースおよび SAP 中央インスタンスリソースとして構成します。
「名前」節には間違いがあります。「名前」節は次のようになる必要があります。
sap_as、SUNW.sap_as - フェイルオーバーデータサービスとしての Sun Cluster HA for SAP 用のリソースタイプの実装。
sap_as、SUNW.sap_as_v2 - フェイルオーバーデータサービスまたはスケーラブルデータサービスとしての Sun Cluster HA for SAP 用のリソースタイプの実装。
「機能説明」節には間違いがあります。「機能説明」節は次のようになる必要があります。
Resource Group Manager (RGM) は Sun Cluster ソフトウェア用の SAP データサービスを管理します。Sun Cluster HA for SAP アプリケーションサーバーをフェイルオーバーデータサービスとして設定する場合、このサーバーを論理ホスト名リソースと SAP アプリケーションサーバーリソースとして構成します。Sun Cluster HA for SAP アプリケーションサーバーをスケーラブルデータサービスとして設定する場合、このサーバーをスケーラブル SAP アプリケーションサーバーリソースとして構成します。
rg_properties(5) のマニュアルページには、次の新しいリソースグループプロパティが追加されます。
Auto_start_on_new_cluster
このプロパティは、新しいクラスタが形成されるときに、Resource Group Manager がリソースグループを自動的に起動するかどうかを制御します。
デフォルトは TRUE です。TRUE に設定されている場合、クラスタのすべてのノードが同時に再起動したとき、Resource Group Manager はリソースグループを自動的に起動して、Desired_primaries を実現しようとします。FALSE に設定されている場合、クラスタのすべてのノードが同時に再起動したとき、Resource Group Manager はリソースグループを自動的に起動しません。
分類: オプション デフォルト: TRUE 調整可能: 任意の時点