この章では、Sun Cluster 3.0 5/02 Update リリースに追加された新しいデータサービスのインストールと構成について説明します。この章の情報は『Sun Cluster 3.0 12/01 データサービスのインストールと構成』についての補足です。新しいクラスタフレームワークのインストールについては、第 4 章「インストール」を参照してください。
この章では、次の項目の新しい情報について説明します。
以下の情報は、この Update リリース以降のすべての更新に適用されます。
更新された Sun Cluster HA for SAP の章には、SAP をスケーラブルデータサービスとしてサポートする手順が含まれます。付録 B 「Sun Cluster HA for SAP のインストールと構成」を参照してください。
更新された Sun Cluster HA for SAP の章には、ロックファイルを設定する手順が含まれます。「ロックファイルの設定」を参照してください。
次の機能は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この機能は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
クラスタが起動した後、あるいは、サービスが別のノードにフェイルオーバーした後、グローバルデバイスとクラスタファイルシステムが利用できるようになるまでには、しばらく時間がかかることがあります。しかし、データサービスは自分が依存しているグローバルデバイスとクラスタファイルシステムがオンラインになる前に、自分の START メソッドを実行することがあります。 この場合、START メソッドがタイムアウトするので、データサービスが使用するリソースグループの状態を手動でリセットして、データサービスを再起動する必要があります。リソースタイプ HAStorage と HAStoragePlus はグローバルデバイスとクラスタファイルシステムを監視して、これらが利用可能 (オンライン) になるまで、同じリソースグループ内にある他のリソースの START メソッドを待機させます。(使用するリソースタイプを決める方法については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「推奨事項」を参照してください)。余分な管理作業を避けるために、データサービスリソースがグローバルデバイスまたはクラスタファイルシステムに依存しているすべてのリソースグループの HAStorage または HAStoragePlus を設定します。
HAStoragePlus リソースタイプを作成する方法については、「HAStoragePlus リソースタイプを設定する方法 (5/02)」を参照してください。
次の機能は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この機能は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
HAStoragePlus リソースタイプを使用すると、ローカルファイルシステムを Sun Cluster 環境内で高可用性にすることができます。このためには、ローカルファイルシステムのパーティションが広域ディスクグループに存在し、アフィニティスイッチオーバーが有効であり、Sun Cluster 環境がフェイルオーバー用に構成されている必要があります。これによって、多重ホストディスクに直接接続された任意のホストから、多重ホストディスク上の任意のファイルシステムにアクセスできるようになります。(HAStoragePlus では、ルートファイルシステムを高可用性にすることはできません)。
入出力が多いデータサービスで高可用性のローカルファイルシステムを使用することを強く推奨します。また、これらのデータサービスの登録と構成の手順には HAStoragePlus リソースタイプの構成が追加されます。これらのデータサービスの HAStoragePlus リソースタイプを設定する手順については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の次の節を参照してください。
その他のデータサービスの HAStoragePlus リソースタイプを設定する手順については、「HAStoragePlus リソースタイプを設定する方法 (5/02)」を参照してください。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
HAStoragePlus リソースタイプは Sun Cluster 3.0 5/02 から導入されます。この新しいリソースタイプは HAStorage と同じ関数を実行して、リソースグループとディスクデバイスグループ間で起動の同期をとります。HAStoragePlus リソースタイプには、ローカルファイルシステムを高可用性にするための機能が追加されています。(ローカルファイルシステムを高可用性にするための説明については、「高可用性ローカルファイルシステムの有効化」を参照)。これらの機能を両方とも使用するには、HAStoragePlus リソースタイプを設定します。
HAStoragePlus を設定するには、ローカルファイルシステムのパーティションが広域ディスクグループに存在し、アフィニティスイッチオーバーが有効であり、Sun Cluster 環境がフェイルオーバー用に構成されている必要があります。
次の例では、簡単な NFS サービスを使用して、ローカルにマウントされたディレクトリ /global/local-fs/nfs/export/home からホームディレクトリのデータを共有します。この例では、次の条件を前提にしています。
マウントポイント /global/local-fs/nfs は、UFS ローカルファイルシステムを Sun Cluster 広域デバイスのパーティションにマウントするために使用されます。
/global/local-fs/nfs ファイルシステムの /etc/vfstab エントリには、このファイルシステムがローカルファイルシステムで、マウントブートフラグが「no」であるよう指定されている必要があります。
PathPrefix ディレクトリ (HA-NFS が管理情報と状態情報を保守するために使用するディレクトリ) は、マウントするファイルシステムのルートディレクトリ (たとえば、/global/local-fs/nfs) 上に存在します。
クラスタメンバー上でスーパーユーザーになります。
リソースタイプが登録されているかどうかを調べます。
次のコマンドは、登録されているリソースタイプのリストを出力します。
# scrgadm -p | egrep Type |
必要であれば、リソースタイプを登録します。
# scrgadm -a -t SUNW.nfs |
フェイルオーバーリソースグループ nfs-r を作成します。
# scrgadm -a -g nfs-rg -y PathPrefix=/global/local-fs/nfs |
タイプ SUNW.LogicalHostname の論理ホストリソースを作成します。
# scrgadm -a -j nfs-lh-rs -g nfs-rg -L -l log-nfs |
HAStoragePlus リソースタイプをクラスタに登録します。
# scrgadm -a -t SUNW.HAStoragePlus |
タイプ SUNW.HAStoragePlus のリソース nfs-hastp-rs を作成します。
# scrgadm -a -j nfs-hastp-rs -g nfs-rg -t SUNW.HAStoragePlus ¥ -x FilesystemMountPoints=/global/local-fs/nfs ¥ -x AffinityOn=TRUE |
リソースグループ nfs-rg をクラスタノード上でオンラインにします。
このノードは、/global/local-fs/nfs ファイルシステムの実際の広域デバイスのパーティション用の主ノードになります。次に、ファイルシステム /global/local-fs/nfs は当該ノード上にローカルにマウントされます。
# scswitch -Z -g nfs-rg |
SUNW.NFS リソースタイプをクラスタに登録します。タイプ SUNW.nfs のリソース nfs-rs を作成して、リソース nfs-hastp-rs へのリソース依存関係を指定します。
dfstab.nfs-rs が /global/local-fs/nfs/SUNW.nfs に作成されます。
# scrgadm -a -t SUNW.nfs # scrgadm -a -g nfs-rg -j nfs-rs -t SUNW.nfs ¥ -y Resource_dependencies=nfs-hastp-rs |
nfs リソースに依存関係を設定するには、nfs-hastp-rs リソースがオンラインである必要があります。
nfs-rs をオンラインにします。
# scswitch -Z -g nfs-rg |
これで、サービスを新しいノードに移行するときには常に、/global/local-fs/nfs 用のプライマリ入出力パスはオンラインになり、NFS サーバーに配置されます。ファイルシステム /global/local-fs/nfs は NFS サーバーが起動する前にローカルにマウントされます。
次の変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。Sun Cluster HA for Oracle はフェイルオーバーデータサービスとして登録および構成します。このためには、データサービスを登録して、Oracle のサーバーとリスナー用にリソースグループとリソースを構成する必要があります。リソースグループとリソースの詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Sun Cluster データサービスの計画」および『Sun Cluster 3.0 12/01 の概念』を参照してください。
次の変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。この手順では、scrgadm コマンドを使用して、Sun Cluster HA for Oracle を登録および構成する方法について説明します。
この手順には、HAStoragePlus リソースタイプを作成する方法も含まれます。このリソースタイプは、HAStoragePlus とデータサービス間でアクションの同期をとって、高可用性ローカルファイルシステムを使用できるようにします。Sun Cluster HA for Oracle ではディスクに負荷がかかるため、HAStoragePlus リソースタイプを構成する必要があります。
詳細な説明については、SUNW.HAStoragePlus(5) のマニュアルページと 「リソースグループとディスクデバイスグループの関係」を参照してください。
その他のオプションでもデータサービスは登録および構成できます。このようなオプションの詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。
この手順を実行するには、次の情報を確認しておく必要があります。
データサービスをマスターするクラスタノードの名前。
クライアントがデータサービスにアクセスするために使用するネットワークリソース。通常、この IP アドレスはクラスタをインストールするときに設定します。ネットワークリソースの詳細については、『Sun Cluster 3.0 12/01 の概念』を参照してください。
構成しようと計画しているリソース用の Oracle アプリケーションのバイナリへのパス。
この手順は、すべてのクラスタメンバー上で実行します。
クラスタメンバー上でスーパーユーザーになります。
scrgadm コマンドを実行して、データサービスのリソースタイプを登録します。
Sun Cluster HA for Oracle の場合、次のように、2 つのリソースタイプ SUNW.oracle_server および SUNW.oracle_listener を登録します。
# scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener |
データサービスのリソースタイプを追加します。
当該データサービス用にあらかじめ定義されているリソースタイプを指定します。
ネットワークとアプリケーションのリソースを格納するためのフェイルオーバーリソースグループを作成します。
次のように -h オプションを使用すると、データサービスを実行できるノードのセットを選択できます。
# scrgadm -a -g resource-group [-h nodelist] |
リソースグループの名前を指定します。どのような名前でもかまいませんが、クラスタ内のリソースグループごとに一意である必要があります。
潜在マスターを識別するための物理ノード名または ID をコンマで区切って指定します (省略可能)。フェイルオーバー中、ノードはこのリスト内の順番に従ってプライマリとして判別されます。
ノードリストの順番を指定するには、-h オプションを使用します。クラスタ内にあるすべてのノードが潜在マスターである場合、-h オプションを使用する必要はありません。
使用するすべてのネットワークリソースがネームサービスデータベースに追加されていることを確認します。
この確認は、Sun Cluster のインストール時に行う必要があります。
ネームサービスの検索における問題を回避するために、すべてのネットワークリソースがサーバーとクライアントの /etc/hosts ファイルに存在することを確認します。
ネットワークリソースをフェイルオーバーリソースグループに追加します。
# scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] |
ネットワークリソースを指定します。ネットワークリソースは、クライアントが Sun Cluster HA for Oracle にアクセスするために使用する論理ホスト名または共有アドレス (IP アドレス) です。
各ノード上の NAFO グループを識別するための、コンマで区切ったリストを指定します (省略可能)。リソースグループの nodelist 内にあるすべてのノードは netiflist に存在する必要があります。このオプションを指定しない場合、scrgadm(1M) は、hostname リストが nodelist 内の各ノードを識別するネットアダプタをサブネット上で発見しようと試みます。例としては、-n nafo0@nodename, nafo0@nodename2 のように指定します。
HAStoragePlus リソースタイプをクラスタに登録します。
# scrgadm -a -t SUNW.HAStoragePlus |
タイプ HAStoragePlus のリソース oracle-hastp-rs を作成します。
# scrgadm -a -j oracle-hastp-rs -g oracle-rg -t SUNW.HAStoragePlus ¥ [データベースが raw デバイスの場合、広域デバイスへのパスを指定する。] -x GlobalDevicePaths=ora-set1,/dev/global/dsk/dl ¥ [データベースが Cluster File Service 上にある場合、広域ファイルシステムのマウントポイントを指定する。] -x FilesystemMountPoints=/global/ora-inst,/global/ora-data/logs ¥ [データベースが高可用性ローカルファイルシステム上にある場合、ローカルファイルシステムのマウントポイントを 指定する。] -x FilesystemMountPoints=/local/ora-data ¥ [AffinityOn を TRUE に設定する。] -x AffinityOn=TRUE |
フェイルオーバーを行うためには、AffinityOn が TRUE に設定され、ローカルファイルシステムが広域ディスクグループ上に存在する必要があります。
scrgadm コマンドを実行して、次の作業を完了し、リソースグループ oracle-rg をクラスタノード上でオンラインにします。
リソースグループを管理状態にします。
リソースグループをオンラインにします。
このノードは、デバイスグループ ora-set1 および raw デバイス /dev/global/dsk/d1 のプライマリになります。ファイルシステムに関連するデバイスグループ (/global/ora-inst や /global/ora-data/logs など) もこのノード上でプライマリになります。
# scrgadm -Z -g oracle-rg |
Oracle アプリケーションリソースをフェイルオーバーリソースグループに作成します。
# scrgadm -a -j resource -g resource-group ¥ -t SUNW.oracle_server ¥ -x Connect_string=user/passwd ¥ -x ORACLE_SID=instance ¥ -x ORACLE_HOME=Oracle-home ¥ -x Alert_log_file=path-to-log ¥ -y resource_dependencies=storageplus-resource # scrgadm -a -j resource -g resource-group ¥ -t SUNW.oracle_listener ¥ -x LISTENER_NAME=listener ¥ -x ORACLE_HOME=Oracle-home ¥ -y resource_dependencies=storageplus-resource |
追加するリソースの名前を指定します。
リソースを格納するリソースグループの名前を指定します。
追加するリソースのタイプを指定します。
サーバーメッセージログ用のパスを $ORACLE_HOME の下に指定します。
障害モニターがデータベースに接続するために使用するユーザー名とパスワードを指定します。これらの設定は、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Oracle データベースのアクセス権の設定」で設定したアクセス権と一致する必要があります。Solaris の承認を使用する場合、ユーザー名とパスワードの代わりにスラッシュ (/) を入力します。
Oracle システム識別子を設定します。
Oracle リスナーインスタンスの名前を設定します。この名前は、listener.ora 内の対応するエントリに一致する必要があります。
Oracle ホームディレクトリへのパスを設定します。
Oracle サーバーリソース内で障害が発生して再起動が発生した場合、リソースグループ全体が再起動します。リソースグループ内の他のリソース (Apache や DNS など) は自分自身に障害がなくても再起動します。他のリソースが Oracle サーバーリソースと一緒に再起動するのを避けるためには、他のリソースを別のリソースグループに格納します。
Oracle データサービスに属する拡張プロパティを設定して、そのデフォルト値を変更できます。拡張プロパティのリストについては、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Sun Cluster HA for Oracle 拡張プロパティの構成」を参照してください。
次の例では、Sun Cluster HA for Oracle を 2 ノードクラスタに登録する方法を示します。
Cluster Information Node names: phys-schost-1, phys-schost-2 Logical Hostname: schost-1 Resource group: resource-group-1 (フェイルオーバーリソースグループ) Oracle Resources: oracle-server-1, oracle-listener-1 Oracle Instances: ora-lsnr (リスナー), ora-srvr (サーバー) (すべてのリソースを格納するためのフェイルオーバーリソースグループを追加する。) # scrgadm -a -g resource-group-1 (論理ホスト名リソースをリソースグループに追加する。.) # scrgadm -a -L -g resource-group-1 -l schost-1 (Oracle リソースタイプを登録する。) # scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener (Oracle アプリケーションリソースをリソースグループに追加する。) # scrgadm -a -j oracle-server-1 -g resource-group-1 ¥ -t SUNW.oracle_server -x ORACLE_HOME=/global/oracle ¥ -x Alert_log_file=/global/oracle/message-log ¥ -x ORACLE_SID=ora-srvr -x Connect_string=scott/tiger # scrgadm -a -j oracle-listener-1 -g resource-group-1 ¥ -t SUNW.oracle_listener -x ORACLE_HOME=/global/oracle ¥ -x LISTENER_NAME=ora-lsnr (リソースグループをオンラインにする。) # scswitch -Z -g resource-group-1 |
次の変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。Sun Cluster HA for Sybase ASE を登録および構成するには、この節で説明する手順を使用します。Sun Cluster HA for Sybase ASE はフェイルオーバーデータサービスとして登録および構成します。
次の変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。この手順では、scrgadm(1M) コマンドを使用して、Sun Cluster HA for Sybase ASE を登録および構成する方法について説明します。
この手順には、HAStoragePlus リソースタイプを作成する方法も含まれます。このリソースタイプは、HAStorage と Sun Cluster HA for Sybase ASE 間でアクションの同期をとって、高可用性ローカルファイルシステムを使用できるようにします。Sun Cluster HA for Sybase ASE ではディスクに負荷がかかるため、HAStoragePlus リソースタイプを構成する必要があります。
HAStoragePlus リソースタイプの詳細については、SUNW.HAStoragePlus(5) のマニュアルページと 「リソースグループとディスクデバイスグループの関係」を参照してください。
その他のオプションでもデータサービスは登録および構成できます。このようなオフションの詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。
この手順を実行するには、次の情報を確認しておく必要があります。
データサービスをマスターするクラスタノードの名前。
クライアントがデータサービスにアクセスするために使用するネットワークリソース。通常、この IP アドレスはクラスタをインストールするときに設定します。Sun Cluster 環境を計画する方法と Solaris オペレーティング環境をインストールする方法の詳細については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の節を参照してください。
Sybase ASE アプリケーションがインストールされたパス。
次の手順は 1 つのクラスタメンバー上で実行します。
クラスタメンバー上でスーパーユーザーになります。
scrgadm コマンドを実行して、Sun Cluster HA for Sybase ASE のリソースタイプを登録します。
# scrgadm -a -t SUNW.sybase |
データサービスのリソースタイプを追加します。
当該データサービス用にあらかじめ定義されているリソースタイプを指定します。
ネットワークとアプリケーションのリソースを格納するためのフェイルオーバーリソースグループを作成します。
次のように -h オプションを使用すると、データサービスを実行できるノードのセットを選択できます。
# scrgadm -a -g resource-group [-h nodelist] |
リソースグループの名前を指定します。どのような名前でもかまいませんが、クラスタ内のリソースグループごとに一意である必要があります。
潜在マスターを識別するための物理ノード名または ID をコンマで区切って指定します (省略可能)。フェイルオーバー時、ノードはこのリスト内の順番に従ってプライマリとして判別されます。
ノードリストの順番を指定するには、-h オプションを使用します。クラスタ内にあるすべてのノードが潜在マスターである場合、-h オプションを使用する必要はありません。
使用するすべてのネットワークリソースがネームサービスデータベースに追加されていることを確認します。
この確認は、Sun Cluster のインストール時に実行しておく必要があります。
ネームサービスの検索における問題を回避するために、すべてのネットワークリソースがサーバーとクライアントの /etc/hosts ファイルに存在することを確認します。
ネットワークリソースをフェイルオーバーリソースグループに追加します。
# scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] |
ネットワークリソースを指定します。ネットワークリソースは、クライアントが Sun Cluster HA for Oracle にアクセスするために使用する論理ホスト名または共有アドレス (IP アドレス) です。
各ノード上の NAFO グループを識別するための、コンマで区切ったリストを指定します (省略可能)。リソースグループの nodelist 内にあるすべてのノードは netiflist に存在する必要があります。このオプションを指定しない場合、scrgadm(1M) は、hostname リストが nodelist 内の各ノードを識別するネットアダプタをサブネット上で発見しようと試みます。例としては、-n nafo0@nodename, nafo0@nodename2 のように指定します。
HAStoragePlus リソースタイプをクラスタに登録します。
# scrgadm -a -t SUNW.HAStoragePlus |
タイプ HAStoragePlus のリソース sybase-hastp-rs を作成します。
# scrgadm -a -j sybase-hastp-rs -g sybase-rg ¥ -t SUNW.HAStoragePlus ¥ -x GlobalDevicePaths=sybase-set1,/dev/global/dsk/dl ¥ -x FilesystemMountPoints=/global/sybase-inst ¥ -x AffinityOn=TRUE |
フェイルオーバーを行うためには、AffinityOn が TRUE に設定され、ローカルファイルシステムが広域ディスクグループ上に存在する必要があります。
scrgadm コマンドを実行して、次の作業を完了し、リソースグループ sybase-rg をクラスタノード上でオンラインにします。
リソースグループを管理状態にします。
リソースグループをオンラインにします。
このノードは、デバイスグループ sybase-set1 および raw デバイス /dev/global/dsk/d1 のプライマリになります。ファイルシステムに関連するデバイスグループ (/global/sybase-inst など) もこのノード上でプライマリになります。
# scrgadm -Z -g sybase-rg |
Sybase ASE アプリケーションリソースをフェイルオーバーリソースグループに作成します。
# scrgadm -a -j resource -g resource-group ¥ -t SUNW.sybase ¥ -x Environment_File=environment-file-path ¥ -x Adaptive_Server_Name=adaptive-server-name ¥ -x Backup_Server_Name=backup-server-name ¥ -x Text_Server_Name=text-server-name ¥ -x Monitor_Server_Name=monitor-server-name ¥ -x Adaptive_Server_Log_File=log-file-path ¥ -x Stop_File=stop-file-path ¥ -x Connect_string=user/passwd ¥ -y resource_dependencies=storageplus-resource |
追加するリソースの名前を指定します。
RGM がリソースを格納するリソースグループの名前を指定します。
追加するリソースのタイプを指定します。
環境ファイルの名前を設定します。
適応サーバーの名前を設定します。
バックアップサーバーの名前を設定します。
テキストサーバーの名前を設定します。
監視サーバーの名前を設定します。
適応サーバーのログファイルへのパスを設定します。
停止ファイルへのパスを設定します。
障害モニターがデータベースに接続するために使用するユーザー名とパスワードを指定します。
デフォルト値を持つ拡張プロパティを指定する必要はありません。詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Sun Cluster HA for Sybase ASE 拡張プロパティの構成」を参照してください。
scswitch(1M) コマンドを実行して、次の作業を完了します。
リソースと障害の監視を有効にします。
# scswitch -Z -g resource-group |
Sun Cluster HA for Sybase ASE を登録および構成した後は、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「Sun Cluster HA for Sybase ASE のインストールの確認」に進みます。
以下の情報は、このUpdate リリース以降のすべての更新に適用されます。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
高可用性ローカルファイルシステム - HAStoragePlus を使用すると、ローカルファイルシステムを Sun Cluster 環境に統合して、ローカルファイルシステムを高可用性にすることができます。HAStoragePlus は、検査、マウント、およびマウント解除などのファイルシステム機能も備えているので、Sun Cluster はローカルファイルシステムをフェイルオーバーできます。フェイルオーバーを行うには、アフィニティスイッチオーバーが有効な広域ディスクグループ上にローカルファイルシステムが存在していなければなりません。
HAStoragePlus リソースタイプを使用する方法については、各データサービスの章、または、「高可用性ローカルファイルシステムの有効化」を参照してください。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
リソースタイプ HAStoragePlus を使用すると、フェイルオーバー用に構成された Sun Cluster 環境で高可用性ローカルファイルシステムを使用できます。このリソースタイプは Sun Cluster 3.0 5/02 でサポートされます。HAStoragePlus リソースタイプを設定する方法については、「高可用性ローカルファイルシステムの有効化」を参照してください。
クラスタファイルシステムを作成する方法については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の計画の章を参照してください。
以下の情報は、このUpdate リリース以降のすべての更新に適用されます。
次の変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。リソースタイプ HAStorage および HAStoragePlus を使用すると、次のオプションを構成できます。
ディスクデバイスリソースが利用可能になるまで、HAStorage または HAStoragePlus のリソースを含む同じリソースグループ内にある他のリソースの START メソッドを待機させることによって、ディスクデバイスとリソースグループの起動の順番を調整できます。
AffinityOn を True に設定しておくと、リソースグループとディスクデバイスグループが同じノード上に配置されるので、ディスク負荷の高いデータサービスの性能を上げることができます。
さらに、HAStoragePlus はマウント解除状態であると判明した任意のクラスタファイルシステムもマウントできます。詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「クラスタファイルシステムの構成の計画」を参照してください。
HAStorage または HAStoragePlus のリソースがオンラインである間に、デバイスグループが別のノードに切り替わった場合、AffinityOn は意味を持たず、リソースグループはデバイスグループと一緒には移動しません。一方、リソースグループが別のノードに切り替わった場合、AffinityOn が True に設定されていると、デバイスグループはリソースグループと一緒に新しいノードに移動します。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
HAStorage または HAStoragePlus のどちらのリソースをデータサービスリソースグループに作成するかを決めるには、次の事項を考慮します。
HAStorage または HAStoragePlus のどちらを使用するかを決めます。
Sun Cluster 3.0 12/01 以前のソフトウェアリリースを使用している場合、HAStorage を使用します。
Sun Cluster 3.0 5/02 ソフトウェアリリースを使用している場合、HAStoragePlus を使用します。フェイルオーバー用に構成された Sun Cluster に任意のファイルシステムをローカルで統合したい場合、Sun Cluster 3.0 5/02 にアップグレードして、HAStoragePlus リソースタイプを使用する必要があります。詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「クラスタファイルシステムの構成の計画」を参照してください。
データサービスリソースグループが持っているノードリスト内のいくつかのノードが記憶装置に直接接続されていない場合、HAStorage または HAStoragePlus のリソースをリソースグループに構成して、他のデータサービスリソースから HAStorage または HAStoragePlus のリソースへの依存関係を設定する必要があります。この条件によって、記憶装置とデータサービス間の起動の順番が調整されます。
ディスクに負荷がかかるデータサービスの場合 (Sun Cluster HA for Oracle や Sun Cluster HA for NFS など)、次の作業を行う必要があります。
HAStorage または HAStoragePlus のリソースを当該データサービスリソースグループに追加します。
HAStorage または HAStoragePlus のリソースをオンラインにします。
データサービスリソースから HAStorage または HAStoragePlus のリソースへの依存関係を設定します。
AffinityOn を True に設定します。
これらの作業を行うと、リソースグループとディスクデバイスグループは同じノード上に配置されます。
ディスクに負荷がかからないデータサービスの場合 (起動時にすべてのファイルを読み取るようなサービス。Sun Cluster HA for DNS など)、必ずしも HAStorage または HAStoragePlus のリソースタイプを構成する必要はありません。
個々のデータサービスの推奨事項については、このマニュアルの各データサービスの章を参照してください。
ディスクデバイスグループとリソースグループ間の関係については、「リソースグループとディスクデバイスグループ間での起動の同期」を参照してください。詳細については、SUNW.HAStorage(5) および SUNW.HAStoragePlus(5) のマニュアルページを参照してください。
VxFS などのファイルシステムをローカルモードでマウントする方法については、「高可用性ローカルファイルシステムの有効化」を参照してください。詳細については、SUNW.HAStoragePlus のマニュアルページを参照してください。
次の機能は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この機能は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
Prioritized Service Management (RGOffload) を使用すると、重要なデータサービス用にノードのリソースを自動的に解放できます。RGOffload は、重要なフェイルオーバーデータサービスを起動するために、重要でないスケーラブルデータサービスまたはフェイルオーバーデータサービスをオフラインにする必要があるときに使用します。RGOffload は、重要でないデータサービスを含むリソースグループを取り外すときに使用します。
重要なデータサービスはフェイルオーバー可能でなければなりません。取り外されるデータサービスは、フェイルオーバーデータサービスでもスケーラブルデータサービスでもかまいません。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
クラスタメンバー上でスーパーユーザーになります。
RGOffload リソースタイプが登録されているかどうかを調べます。
次のコマンドは、リソースタイプのリストを出力します。
# scrgadm -p|egrep SUNW.RGOffload |
必要であれば、リソースタイプを登録します。
# scrgadm -a -t SUNW.RGOffload |
RGOffload リソースで取り外すリソースグループごとに、Desired_primaries をゼロに設定します。
# scrgadm -c -g offload-rg -y Desired_primaries=0 |
RGOffload リソースを重要なフェイルオーバーリソースグループに追加して、拡張プロパティを設定します。
リソースグループを複数のリソースの rg_to_offload リストに追加してはいけません。リソースグループを複数の rg_to_offload リストに追加すると、リソースグループはオフラインになった後にオンラインになるという動作を繰り返すことになります。
拡張プロパティについては、「RGOffload 拡張プロパティの構成 (5/02)」を参照してください。
# scrgadm -aj rgoffload-resource -t SUNW.RGOffload -g critical-rg ¥ -x rg_to_offload=offload-rg-1, offload-rg-2, ... ¥ -x continue_to_offload=TRUE -x max_offload_retry=15 |
この場合、rg_to_offload 以外の拡張プロパティはデフォルト値で表示されます。rg_to_offload は、お互いに依存しないリソースグループをコンマで区切ったリストです。このリストには、RGOffload リソースを追加するリソースグループが含まれていてはいけません。
RGOffload リソースを有効にします。
# scswitch -ej rgoffload-resource |
重要なフェイルオーバーリソースから RGOffload への依存関係を設定します。
# scrgadm -c -j critical-resource ¥ -y Resource_dependencies=rgoffload-resource |
Resource_dependencies_weak も使用できます。Resource_dependencies_weak を RGOffload リソースタイプに使用すると、offload-rg の取り外し中にエラーが発生しても、重要なフェイルオーバーリソースを起動できます。
リソースグループを、取り外し可能なオンライン状態にします。
# scswitch -z -g offload-rg, offload-rg-2, ... -h nodelist |
リソースグループは、重要なリソースグループがオフラインであるすべてのノード上でオンラインのままになります。障害モニターは、重要なリソースグループがオンラインであるノード上でリソースグループが動作しないようにします。
取り外されるリソースグループの Desired_primaries はゼロに設定されているので (手順 4を参照)、-Z オプションを指定しても、このようなリソースグループはオンラインになりません。
重要なフェイルオーバーリソースグループがオンラインでない場合、オンラインにします。
# scswitch -Z -g critical-rg |
この例では、RGOffload リソース (rgofl)、RGOffload リソースを含む重要なリソースグループ (oracle_rg)、および重要なリソースグループがオンラインになったときに取り外されるスケーラブルリソースグループ (IWS-SC, IWS-SC-2) を構成する方法について説明します。この例では、重要なリソースは oracle-server-rs です。
この例では、oracle_rg、IWS-SC、および IWS-SC-2 はクラスタ triped の任意のノード、つまり、phys-triped-1、phys-triped-2、phys-triped-3 上でマスターできます。
[SUNW.RGOffload リソースタイプが登録されているかどうかを判断する。] # scrgadm -p|egrep SUNW.RGOffload [必要であれば、リソースタイプを登録する。] # scrgadm -a -t SUNW.RGOffload [RGOffload リソースで取り外されるリソースグループごとに Desired_primaries をゼロに設定する。] |
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
通常、RGOffload リソースを作成するとき、拡張プロパティを構成するには、コマンド行 scrgadm -x parameter=value を使用します。すべての Sun Cluster 標準プロパティの詳細については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「標準プロパティ」を参照してください。
RGOffload 用に構成できる拡張プロパティについては、表 5-1 を参照してください。「調整可能」エントリは、いつプロパティを更新できるかを示します。
表 5-1 RGOffload 拡張プロパティ
名前/データタイプ |
デフォルト |
---|---|
rg_to_offload (文字列) |
重要なフェイルオーバーリソースグループがノード上で起動するときに、当該ノード上で取り外す必要があるリソースグループをコンマで区切ったリスト。このリストには、お互いに依存するリソースグループが含まれてはいけません。このプロパティにはデフォルト設定値がないので、必ず設定する必要があります。
RGOffload は、rg_to_offload 拡張プロパティに設定されたリソースグループのリストにおける依存関係ループを検査しません。たとえば、リソースグループ RG-B が RG-A に依存する場合、RG-A と RG-B は両方とも rg_to_offload に含まれてはいけません。
デフォルト: なし 調整可能:任意の時点 |
continue_to_offload (ブール型) |
リソースグループの取り外し中にエラーが発生した後に、rg_to_offload リスト内の残りのリソースグループの取り外し続けるかどうかを示すブール型。
このプロパティを使用するのは START メソッドだけです。
デフォルト:True 調整可能:任意の時点 |
max_offload_retry (整数) |
クラスタまたはリソースグループの再構成による障害時の起動中に、リソースグループの取り外しを試みる回数。再試行の間には 10 秒の間隔があります。
max_offload_retry は、RGOffload リソースの Start_timeout より少なくなるように設定します (取り外しするリソースグループの数 x max_offload_retry x 10 秒)。この値が Start_timeout の値に近い (あるいは、より大きい) 場合、最大再試行数に到達する前に、RGOffload リソースの START メソッドがタイムアウトする可能性があります。
このプロパティは START メソッドだけが使用します。
デフォルト:15 調整可能:任意の時点 |
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
RGOffload リソースの障害モニター検証は、重要なリソースをマスターするノード上で、rg_to_offload 拡張プロパティに指定されたリソースグループをオフラインにし続けるために使用されます。各検証サイクルで障害モニターは、重要なリソースをマスターするノード上で、取り外すリソースグループ (offload-rg) がオフラインであることを確認します。重要なリソースをマスターするノード上で offload-rg がオンラインである場合、障害モニターは重要なリソースをマスターするノード以外のノード上で offload-rg を起動し、同時に、重要なリソースをマスターするノード上では offload-rg をオフラインにしようとします。
offload-rg の desired_primaries はゼロに設定されているので、この後で利用可能になったノード上では、取り外すリソースグループは再起動されません。したがって、RGOffload 障害モニターは maximum_primaries に到達するまで、重要なリソースをマスターするノード上では offload-rg をオフラインにしながら、可能な限りのプライマリ上で offload-rg を起動しようとします。
RGOffload は、保守状態または非管理状態でない限り、取り外されたすべてのリソースを起動しようとします。リソースグループを非管理状態にするには、scswitch コマンドを使用します。
# scswitch -u -g resourcegroup |
障害モニター検証サイクルは、Thorough_probe_interval が実行された後にかならず呼び出されます。
以下の情報は、このUpdate リリース以降のすべての更新に適用されます。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
iPlanet Directory Server は Solaris 9 オペレーティング環境にバンドルされています。Solaris 9 を使用している場合、Solaris 9 CD-ROM を使用して iPlanet Directory Server をインストールします。
iPlanet Directory Server パッケージをクラスタのすべてのノードにインストールします (インストールされていない場合)。
クラスタファイルシステム上で、すべてのディレクトリサーバーを保守したい場所を特定します (/global/nsldap など)。
必要であれば、保守用のファイルシステムとして異なるディレクトリも作成できます。
すべてのノード上で、/var/ds5 から当該ディレクトリへのリンクを作成します。/var/ds5 がすでにノード上に存在する場合、それを削除してからリンクを作成します。
# rmdir /var/ds5 # ln -s /global/nsldap /var/ds5 |
任意の 1 つのノード上で、ディレクトリサーバーを通常の方法で設定します。
# directoryserver setup |
このノード上では、リンク /usr/iplanet/ds5/slapd-instance-name が自動的に作成されます。その他のすべてのノード上では、リンクを手動で作成します。
次の例では、dixon-1 は Directory Server の名前です。
# ln -s /var/ds5/slapd-dixon-1 /usr/iplanet/ds5/slapd-dixon-1 |
setup コマンドがサーバー名を問い合わせたときは、論理ホスト名を指定します。
この手順は、フェイルオーバーが正しく機能するために必要です。
指定する論理ホストは、directoryserver setup コマンドを実行したノード上でオンラインである必要があります。これは、iPlanet Directory Server のインストールが終わって iPlanet Directory Server が自動的に起動したときに、論理ホストが当該ノード上でオフラインであると失敗してしまうためです。
論理ホスト名を問い合わせられたときは、当該コンピュータ名として論理ホスト名とドメインを一緒に指定します (phys-schost-1.example.com など)。
setup コマンドが完全なサーバー名を問い合わせたときは、ネットワークリソースに関連するホスト名を指定します。
iPlanet Directory Server Administrative Server として使用する IP アドレスを問い合わせられたときは、directoryserver setup を実行しているクラスタノードの IP アドレスを指定します。
インストールの一部として、iPlanet Directory Server Administrative Server を設定します。このサーバー用に指定する IP アドレスは、フェイルオーバーする論理ホスト名ではなく、物理クラスタノードの IP アドレスである必要があります。
ネットワークリソースを構成および有効にした後は、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』の「iPlanet Directory Server を構成する」に進みます。
以下の情報は、このUpdate リリース以降のすべての更新に適用されます。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
この手順では、高可用性になるように iPlanet Web サーバーのインスタンスを構成する方法について説明します。この手順での操作には、NetscapeTM ブラウザを使用します。
この手順を実行するには、次の情報を確認しておく必要があります。
開始する前に、クラスタが存在するネットワークにアクセスできるマシン上にブラウザをインストールしていることを確認します。ブラウザは、クラスタノードにもクラスタの管理ワークステーションにもインストールできます。
構成ファイルは、ローカルファイルシステムにもクラスタファイルシステムにも格納できます。
インスタンスの安全を保証するためのあらゆる証明書は、すべてのクラスタノードからインストールされる必要があります。このインストールでは、各ノード上で管理コンソールを実行します。したがって、クラスタにノード n1、n2、n3、および n4 が存在する場合、インストール手順は次のようになります。
ノード n1 上で管理サーバーを実行します。
Web ブラウザから管理サーバーに接続します。つまり、http://n1.domain:port (たとえば、http://n1.example.com:8888) と指定するか、管理サーバーポート用のアドレスを指定します。通常、このポートは 8888 です。
証明書をインストールします。
ノード n1 上で管理サーバーを停止して、ノード n2 から管理サーバーを実行します。
Web ブラウザから新しい管理サーバーに接続します。つまり、http://n2.domain:port (たとえば、http://n2.example.com:8888) と指定します。
ノード n3 と n4 に対しても上記手順を繰り返します。
上記の事項を考慮した後で、次の手順を行います。
すべてのノードのローカルディスク上に、iPlanet Web Server が管理するログ、エラーファイル、および PID ファイルを格納するためのディレクトリを作成します。
iPlanet が正しく機能するために、これらのファイルは、クラスタファイルシステムではなく、クラスタの各ノード上に存在する必要があります。
クラスタ内のすべてのノードにおいて、ローカルディスクの同じ場所を選択します。ディレクトリを作成するには、mkdir -p コマンドを使用します。このディレクトリの所有者は nobody にします。
次の例に、この手順を行う方法を示します。
phys-schost-1# mkdir -p /var/pathname/http-instance/logs/ |
エラーログや PID ファイルが大きくなると予想される場合、/var ディレクトリの容量は小さいので、このディレクトリに格納してはいけません。その代わりに、大きなファイルを格納できるだけの十分な容量を持つパーティションに新しいディレクトリを作成します。
管理ワークステーションまたはクラスタノードから Netscape ブラウザを起動します。
1 つのクラスタノード上で、ディレクトリ https-admserv に移動し、iPlanet 管理サーバーを起動します。
# cd https-admserv # ./start |
Netscape ブラウザで iPlanet 管理サーバーの URL を入力します。
URL は、サーバーインストール手順の手順 4 で iPlanet インストールスクリプトが確立した物理ホスト名とポート番号から構成されます (たとえば、n1.example.com:8888)。この 手順 2 を実行すると、./start コマンドは管理 URL を表示します。
サーバーインストール手順の手順 6 で指定したユーザー ID とパスワードをプロンプトに入力して、iPlanet 管理サーバーインタフェースにログインします。
次の作業を行うには、可能な限り管理サーバーを使用し、そうでない場合だけ手動で変更するようにします。
次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。
新しいリソースグループプロパティ Auto_start_on_new_cluster が Resource Group Properties リストに追加されます。
表 5-2 リソースグループプロパティ
プロパティ名 |
説明 |
---|---|
Auto_start_on_new_cluster (ブール型) |
このプロパティを使用すると、新しいクラスタを形成するとき、Resource Group の自動起動を無効にすることができます。
デフォルトは TRUE です。TRUE の場合、クラスタが再起動するとき、Resource Group Manager は Resource Group を自動的に起動して、Desired_primaries を有効にしようと試みます。FALSE の場合、クラスタが再起動するとき、Resource Group Manager は Resource Group を自動的に再起動しません。
カテゴリ:オプション デフォルト:True 調整可能:任意の時点 |