このマニュアルでは、SunTM Cluster 3.2 ソフトウェアに関する次の情報について説明しています。
この節では、Sun Cluster 3.2 ソフトウェアで新しく追加された機能と、サポートされている製品について説明します。この節では、このリリースに適用される制限事項についても説明します。
この節では、Sun Cluster 3.2 ソフトウェアで提供された次の新機能について説明します。
新しい Sun Cluster コマンド行インタフェースには、 クラスタオブジェクトタイプごとに別々のコマンドがあり、一貫したサブコマンド名とオプション文字を使用します。新しい Sun Cluster コマンドセットは、短いコマンド名と長いコマンド名にも対応しています。コマンド出力により、改良されたヘルプとエラーメッセージ、およびさらに読みやすいステータスレポートと構成レポートを提供します。さらに、一部のコマンドには、ポータブル XML ベースの構成ファイルを使用したエクスポートおよびインポートオプションが含まれています。これらのオプションを使用してクラスタ構成の一部または全部を複製できるため、一部または全部の構成の複製を高速化できます。詳細は、Intro(1CL) のマニュアルページを参照してください。
Sun Cluster Oracle RAC パッケージのインストールおよび構成が Sun Cluster の手順に統合されました。新しい Oracle RAC 固有のリソースタイプとプロパティーを使用すれば、さらに細かい制御が可能になります。
ScalDeviceGroup および ScalMountPoint リソースタイプによって提供される Oracle RAC の拡張された管理機能によって、Sun Cluster 構成内での Oracle RAC の設定がより簡単になり、また、診断機能と可用性が向上しています。詳細は、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』を参照してください。
Sun Cluster は、パラメータ選択の自動検出と迅速な検証により、一般的なアプリケーションの構成を簡単にする新しいデータサービス構成ウィザードを提供しています。Sun Cluster データサービス構成ウィザードは、次の 2 つの形式で提供されています。
Sun Cluster Manager GUI
clsetup コマンド行インタフェース
Sun Cluster Manager GUI 形式では次のデータサービスがサポートされています。
HA-Oracle
Oracle RAC
HA-NFS
Solaris ソフトウェアに含まれるすべてのバージョンの HA-Apache
HA-SAP
clsetup コマンド行インタフェース形式は、Sun Cluster Manager でサポートされるすべてのアプリケーションに対応しています。
サポートされる各データサービスについての詳細は、Sun Cluster のマニュアルを参照してください。
Sun Cluster ソフトウェアでは、プライベートインターコネクト用の IP アドレスの範囲を縮小することができるようになりました。さらに、インストール中またはインストール後に IP ベースのアドレスとその範囲をカスタマイズできるようになりました。
このような IP アドレススキーマの変更により、アドレス空間が制限されたり、規制されている既存のネットワークへの Sun Cluster 環境の統合が容易になります。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「既存のクラスタのプライベートネットワークアドレスまたはアドレス範囲を変更する」を参照してください。
Sun Cluster ソフトウェアは、Solaris 10 OS Service Management Facility (SMF) と緊密に統合され、Sun Cluster リソース管理モデルで SMF 制御アプリケーションをカプセル化できるようになりました。ローカルサービスレベルのライフサイクル管理は引き続き SMF によって行われますが、全リソースレベルのクラスタ全体の障害処理操作 (ノード、ストレージ) は、Sun Cluster ソフトウェアによって実行されます。
アプリケーションをシングルノードの Solaris 10 OS 環境からマルチノードの Sun Cluster 環境に移行することにより、最小限の労力で可用性を向上させることができます。詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「Sun Cluster 上で Solaris SMF サービスを有効にする」を参照してください。
この新しい機能により、デフォルトのフェンシングプロトコルをカスタマイズできます。SCSI-3、SCSI-2、デバイス別検出などを選択できます。
この柔軟性により、最新のプロトコルである SCSI-3 をデフォルトで使用して、マルチパスのサポートの向上、Sun 以外のストレージとの統合の簡略化、および新しいストレージでの回復時間の短縮を実現できる一方で、古いデバイス用に Sun Cluster 3.0 または 3.1 の動作や SCSI-2 も従来どおりサポートします。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ストレージデバイス用の SCSI プロトコル設定の管理」を参照してください。
新しい定足数デバイスを Sun Cluster ソフトウェアで利用できるようになりました。共有ディスクと SCSI 予約プロトコルを使用する代わりに、クラスタ外の Solaris サーバーを使用して、TCP/IP 経由で不可分な予約プロトコルをサポートする定足数サーバーモジュールを実行できるようになりました。このサポートにより、フェイルオーバー時間を高速化し、導入コストを削減することができます。定足数が必須 (2 ノード) または望ましいあらゆるケースで、共有定足数ディスクが不要になります。詳細は、『Sun Cluster 定足数サーバーユーザーズガイド』を参照してください。
Sun Cluster ソフトウェアは、共有ディスクへのすべてのパスで障害が起きると自動的にノードを再起動するように構成できるようになりました。重大なディスクパス障害が起きた場合の対応が迅速になることにより、可用性を向上させることができます。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ディスクパス監視の管理」を参照してください。
マウントエラーが起きた場合に、自動的に HAStoragePlus マウントポイントが作成されるようになりました。この機能により、フェイルオーバーにつながる障害がなくなるため、環境の可用性が向上します。
Sun Cluster ソフトウェアは、次のデータサービスで Solaris の非大域ゾーンをサポートするようになりました。
Sun Cluster Data Service for Apache
Sun Cluster Data Service for Apache Tomcat
Sun Cluster Data Service for DHCP
Sun Cluster Data Service for Domain Name Service (DNS)
Sun Cluster Data Service for Kerberos
Sun Cluster Data Service for mySQL
Sun Cluster Data Service for N1 Grid Service Provisioning Server
Sun Cluster Data Service for Oracle
Sun Cluster Data Service for Oracle Application Server
Sun Cluster Data Service for PostgreSQL
Sun Cluster Data Service for Samba
Sun Cluster Data Service for Sun Java System Application Server
Sun Cluster Data Service for Sun Java System Message Queue Server
Sun Cluster Data Service for Sun Java System Web Server
このサポートにより、Solaris ゾーンにより提供されるアプリケーションに含まれる利点と、Sun Cluster ソフトウェアによって提供される可用性の向上を組み合わせることができるようになりました。該当するデータサービスの詳細は、Sun Cluster のマニュアルを参照してください。
Sun Cluster 3.2 リリースでは、ZFS は高い可用性を備えたローカルファイルシステムとしてサポートされています。ZFS と Sun Cluster ソフトウェアの組み合わせは、高可用性、データの完全性、パフォーマンス、スケーラビリティーを兼ね備えた最高クラスのファイルシステム解決方法を提供し、もっとも要求の厳しい環境のニーズに応えます。
すべてのワークロード、特にデータベーストランザクションのパフォーマンスを最適化するために、継続的な拡張が ZFS に追加されています。ZFS の最新のパッチがインストールされていること、および使用中の構成が特定の種類のワークロードに最適化されていることを確認してください。
Sun Cluster ベースのキャンパスクラスタが HDS TrueCopy コントローラベースの複製をサポートし、TrueCopy 構成の自動管理ができるようになりました。Sun Cluster ソフトウェアは、フェイルオーバー時に二次キャンパスサイトへの切り替えを自動的および透過的に処理し、この手順のエラーを減らして、ソリューションの全体的な可用性を向上させます。この新しいリモートデータ複製インフラストラクチャーにより、Sun Cluster ソフトウェアは、TrueCopy などの特定の複製インフラストラクチャーで標準化を行ってきたユーザーや、距離の問題やアプリケーションに互換性がないことが原因で、ホストベースの複製が有効なソリューションとならない場合に対して、新たな構成をサポートすることができます。
この新しい組み合わせにより、可用性が向上し、複雑さが軽減される一方で、コストが削減されます。Sun Cluster ソフトウェアは、既存の TrueCopy ユーザーの複製インフラストラクチャーを利用することにより、追加の複製ソリューションの必要性を少なくします。
仕様ベースのキャンパスクラスタが、より広範な距離の構成をサポートするようになりました。これらのクラスタでは、距離およびコンポーネントの厳守を求めるのではなく、待ち時間や誤り率に準拠することを求めることによって、広範な距離の構成をサポートします。
詳細は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』の第 7 章「Campus Clustering With Sun Cluster Software」を参照してください。
Sun Cluster 構成では、新しい EFI (Extensible Firmware Interface) ディスクフォーマットを使用する 1 TB を超える容量のディスクがサポートされるようになりました。このフォーマットは、マルチテラバイトディスクには必須ですが、それよりも容量の小さいディスクにも使用できます。この新機能によってサポートされる Sun Cluster 構成は、ハイエンドのストレージ要件を備えた環境にまで拡張されます。
SPARC プラットフォームでは、VERITAS Storage Foundation 5.0 の一部である VERITAS Volume Manager およびファイルシステムがサポートされ、Solaris 10 OS x86/x64 プラットフォームでは、VERITAS Volume Manager 4.1 がサポートされるようになりました。
VERITAS Volume Replicator (VVR) 5.0 および VERITAS FlashSnap の一部である VERITAS Fast Mirror Resynchronization (FMR) 4.1 および 5.0 を、SPARC プラットフォーム上の Sun Cluster 環境で使用できるようになりました。
ローカルの UFS ファイルシステム上で HAStoragePlus とともに Quota 管理を使用して、リソースの消費をよりよく制御できるようになりました。
Sun Cluster ソフトウェアでは、DataGuard データ複製ソフトウェアなどの Oracle ソフトウェア導入の操作性が向上しました。ユーザーは、一次サイトまたは予備サイトとして、Oracle DataGuard 構成の一部となる HA-Oracle データベースを指定できるようになりました。この二次データベースは、論理的な予備と物理的な予備のいずれにもできます。詳細は、『Sun Cluster Data Service for Oracle Guide for Solaris OS 』を参照してください。
HA-Oracle エージェントが予備データベースを管理している場合、エージェントはそのデータベースの起動、停止、および監視のみを制御します。別のノードにフェイルオーバーした場合、このエージェントは予備データベースの復旧を再開しません。
この新しいソフトウェアスワップ機能により、アップグレードプロセスが大幅に簡略化されました。Solaris オペレーティングシステム、Sun Cluster ソフトウェア、ファイルシステム、ボリュームマネージャー、アプリケーション、データサービスなど、ソフトウェアスタックのあらゆるコンポーネントを Sun Cluster ソフトウェアとともにワンステップでアップグレードできます。この自動化により、クラスタのアップグレード中に人為的なミスのリスクが低減し、標準的なクラスタのアップグレードで発生するサービスの中断が最小になります。
Live Upgrade メソッドを Sun Cluster ソフトウェアで使用できるようになりました。このメソッドにより、アップグレード中のノードのシステム停止時間や不必要な再起動が減ることにより、必要な保守時間が少なくなり、その間にサービスがリスクにさらされることも少なくなります。
現時点で Live Upgrade を使用できるのは、Sun Cluster のインストールでストレージまたはディスクグループの管理に Solaris ボリュームマネージャーを使用する場合だけです。Live Upgrade は現在、VxVM をサポートしていません。詳細は、「アップグレード」を参照してください。
Solaris 8 から Solaris 9 への Live Upgrade を実行する場合、代替ルートから再起動する前に SVM パッチ 116669-18 を適用する必要があります。
Sun Cluster の管理 GUI である Sun Cluster Manager のインストールがオプションになりました。この変更により、Web ベースのアクセスがなくなり、潜在的なセキュリティールールに準拠しやすくなります。インストール時の Sun Cluster Manager の選択解除についての詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」を参照してください。
Sun Cluster ソフトウェアに新しい Sun Cluster SNMP イベント メカニズムおよび新しい SNMP MIB が含まれています。これらの新機能を使用して、サードパーティの SNMP 管理アプリケーションを Sun Cluster ソフトウェアで直接登録して、タイムリーにクラスタイベントを受け取ることができます。きめ細かなイベント通知と標準の SNMP サポートによる第三者のエンタープライズ管理フレームワークとの直接の統合により、予防保守監視が可能になり、可用性が向上します。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「Sun Cluster SNMP イベント MIB の作成、設定、および管理」を参照してください。
Sun Cluster ソフトウェア内でコマンド情報をログに記録できるようになりました。この機能は、クラスタ障害の診断を容易にし、アーカイブまたは複製のための管理操作の履歴を提供します。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「Sun Cluster のコマンドログの内容を表示する」を参照してください。
Sun Cluster ソフトウェアは、ノード、リソース、およびリソースグループ別のリソース消費のきめ細かな測定を含む、新しいシステムリソース利用率測定および表示ツールを提供します。これらの新しいツールにより、履歴データが提供され、しきい値管理および CPU の予約と制御が可能になります。このような制御機能の向上によって、サービスレベルおよび容量の管理が改善されます。
対話型の scinstall ユーティリティーは、各サブネットで利用可能なアダプタに応じて、パブリックネットワークアダプタのセットごとにシングルアダプタ IPMP グループでも、マルチアダプタの IPMP グループでも構成するようになりました。この機能は、サブネットに関係なく各アダプタに対してシングルアダプタの IPMP グループを生成していた、ユーティリティーの以前の動作に代わるものです。IPMP グループポリシーに対するこの変更およびその他の変更については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「パブリックネットワーク」を参照してください。
次の新機能により、セキュアシェルのサポートが Cluster Control Panel (CCP) に追加されました。
セキュアシェルのサポートの cconsole ユーティリティーへの追加。cconsole グラフィカルユーザーインタフェース (GUI) からノードコンソールにセキュアシェル接続を行うには、「オプション」メニューで「SSH の使用」チェックボックスを有効にします。
または、コマンドラインから次のコマンドを入力して、セキュアシェルモードでユーティリティーを直接起動することもできます。
cconsole -s [-l username] |
クラスタノードに安全に接続するための新しい cssh ユーティリティーの導入。
CCP のセキュアシェル機能の準備と使用については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」を参照してください。関連するマニュアルページの更新については、「ccp(1M)」、「cconsole(1M)、crlogin(1M)、cssh(1M)、および ctelnet(1M)」、および 「serialports(4)」を参照してください。
クラスタが持つ必要のあるクラスタインターコネクトの必要最小数は、クラスタノード間あたり 1 クラスタインターコネクトに変更されました。対話型の scinstall ユーティリティーは、「カスタム」モードでユーティリティーを使用する場合にインターコネクト 1 つだけの構成を許可するように更新されました。ユーティリティーの「通常」モードを使用するには、依然として 2 つのインターコネクトを構成する必要があります。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「クラスタインターコネクト」を参照してください。
Sun Cluster 3.2 ソフトウェアは、フェイルオーバーサービスで Solaris IP フィルタをサポートします。Solaris IP フィルタは、ステートフルなパケットフィルタリングとネットワークアドレス変換 (NAT) を提供します。Solaris IP フィルタには、アドレスプールを作成および管理する機能も含まれています。Solaris IP フィルタの詳細は、『Solaris のシステム管理 (IP サービス)』の『Solaris のシステム管理 (IP サービス)』のパート IV「IP セキュリティー」を参照してください。Sun Cluster ソフトウェアでの IP フィルタリングの設定については、「Sun Cluster での Solaris IP フィルタリングの使用 」を参照してください。
フェンシング機能を使用するには、各クラスタノードが、NetApp NAS 装置へのアクセス時に、常に同じソース IP アドレスを使用する必要があります。マルチホームシステムは、複数のソース IP アドレスを使用します。マルチホームシステムの管理者は、NetApp NAS 装置へのアクセス時に、常に 1 つのソース IP アドレスが使用されていることを確認する必要があります。これは、適切なネットワーク構成を設定することによって実現できます。
この節では、サポートが近々終了する機能など、Sun Cluster の互換性に関連した事項について説明します。
Sun Cluster フレームワークの互換性に関連したその他の情報は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の第 1 章「Sun Cluster 構成の計画」を参照してください。
Sun Cluster のアップグレードの互換性に関連したその他の情報は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「アップグレードの必要条件とソフトウェアサポートのガイドライン」を参照してください。
既知の問題点や制限については、「既知の問題点とバグ」を参照してください。
次の機能は、Sun Cluster 3.2 ソフトウェアでサポートが終了します。
Sun Cluster 3.2 のリリース時に、Sun Cluster 3.0 はサポートが終了します。Sun Cluster 3.0 のパーツ番号は使用できなくなります。
Sun Cluster 3.2 では、Sun Cluster は Solaris 8 をサポートしません。
Sun Cluster を次マイナーリリースにアップグレードすると、ローリングアップグレード機能を使用できなくなる可能性があります。その場合、これらのソフトウェアのアップグレード中にクラスタの停止を避けるほかの手順が用意される予定です。
sccheck コマンドは、将来のリリースには含まれない可能性があります。ただし、それに相当する機能が cluster check コマンドによって提供されます。
次の既知の問題が Solaris 10 11/06 オペレーティングシステムで Sun Cluster 3.2 リリースの処理に影響を与える可能性があります。これらの問題を修正するために必要な Solaris パッチについては、ご購入先にお問い合わせください。詳細は、『Infodoc 87995』を参照してください。
Solaris パッチを適用する前に、オペレーティングシステムを Solaris 10 11/06 にアップグレードする必要があります。
metaset command fails after the rpcbind server is restarted.
disksets: devid information not written to a newly created diskset.
svm exited with error 1 in step cmmstep5, nodes panic.
fsck: svc:/system/filesystem/usr fails to start from milestone none.
Solaris Volume Manager (SVM) does not show metaset after cluster upgrade in x86.
commd timeout should be a percentage of metaclust timeout value.
metaset -s diskset -t should take ownership of a cluster node after reboot.
SVM still removes the diskset if the Sun Cluster nodeid file is missing.
fsck* svc:/systsem/filesystem/usr fails to start from milestone.
New fsck_ufs(1M) has nits when dealing with already mounted file.
Node panics with CMM:cluster lost operational quorum in amd64.
create_ramdisk: cannot seek to offset -1.
Add etc/cluster/nodeid entry to filelist.ramdisk.
create_ramdisk needs to react less poorly to missing files or directories.
devfsadm link removal does not provide full interpose support.
Sun Cluster は、UFS の機能である fssnap をサポートしません。fssnap は、Sun Cluster によって管理されないので、ローカルシステムで使用できます。fssnap のサポートには、次の制約があります。
Sun Cluster ソフトウェアによって管理されていないローカルファイルシステムでサポートされます。
グローバルファイルシステムではサポートされません。
HAStoragePlus によって制御されているローカルファイルシステムではサポートされません。
Solaris 管理コンソール (Solaris ボリュームマネージャー) の「拡張ストレージ」モジュールは、Sun Cluster ソフトウェアと互換性がありません。Solaris ボリュームマネージャー ソフトウェアの構成には、コマンド行インタフェースまたは Sun Cluster ユーティリティーを使用してください。
Sun Cluster 3.2 ソフトウェアは、一定の状況下における LOFS の使用をサポートしません。クラスタノード上で LOFS を有効にする必要がある場合 (非大域ゾーンを構成する場合など) は、まずその構成に LOFS の制限が適用されるかどうかを確認してください。LOFS の使用についての制限と、制限が適用される場合に LOFS を使用するための方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「Solaris OS の機能制限」を参照してください。
このメディアの公開後にリリースされているアクセシビリティー機能 (障害に配慮した機能) を入手する場合は、Sun が提供する Section 508 製品アセスメントに目を通し、アクセシビリティーソリューションを配備する上でどのバージョンが最適かを検討してください。
この節では、Sun Cluster コマンドインタフェースに加えられた変更のうち、ユーザースクリプトの停止を引き起こす可能性があるものについて説明します。
Sun Cluster 3.2 リリースから、Sun Cluster ソフトウェアにはオブジェクト指向コマンドセットが含まれます。Sun Cluster ソフトウェアでは引き続き元のコマンドセットをサポートしていますが、Sun Cluster の手順マニュアルではオブジェクト指向コマンドセットだけを使用します。オブジェクト指向コマンドセットについての詳細は、Intro(1CL) のマニュアルページを参照してください。一般的な Sun Cluster 手順のためのオブジェクト指向コマンドのリストについては、『Sun Cluster クイックリファレンス』を参照してください。
scinstall コマンドの次のオプションは、Sun Cluster 3.2 リリースで変更されています。
-d オプションは、-i オプションと一緒には使用されなくなりました。scinstall コマンドで、Sun Cluster ソフトウェアパッケージのインストールが実行されなくなりました。その代わりに、installer コマンドを使用します。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」を参照してください。
- d オプションは、-a、-c、および -u オプションとの組み合わせでは引き続き使用できます。
-k オプションは不要になりました。このオプションは、このオプションを使用するユーザースクリプトとの下位互換性のためだけに引き続き提供されています。
-M オプションは使用されなくなりました。その代わりに、クラスタが動作する Solaris OS のバージョンに該当するパッチ管理ツールを使用します。詳細については「パッチと必須ファームウェアのレベル」を参照してください。
scconf の -q オプションは、共有ローカル定足数デバイス (SCSI) とほかのタイプの定足数デバイス (NetAppNAS など) を区別するように変更されました。クラスタに共有定足数デバイスを追加する場合、またはクラスタから共有定足数デバイスを削除する場合は、接続されている共有ストレージデバイスの名前を name サブオプションを使用して指定してください。このサブオプションは、定足数デバイスの状態を変更する際に変更形式のコマンドで使用することもできます。このリリースでも SCSI 共有ストレージデバイスに globaldev サブオプションを使用できますが、ほかのすべてのタイプの共有ストレージデバイスには name サブオプションを使用する必要があります。scconf に対するこの変更と、定足数デバイスに関連した処理の詳細は、scconf(1M)、scconf_quorum_dev_netapp_nas(1M)、scconf_quorum_dev_netapp_nas(1M)、および scconf_quorum_dev_scsi(1M) を参照してください。
Network_resources_used リソースプロパティーを直接変更する必要がなくなりました。その代わりに、Resource_dependencies プロパティーを使用します。RGM は、Resource_dependencies プロパティーの設定に基づいて、Network_resources_used プロパティーを自動的に更新します。これら 2 つのリソースプロパティーの最新の使い方については、「r_properties(5)」 のマニュアルページを参照してください。
この節では、Sun Cluster ソフトウェアでサポートされるアプリケーションの製品名変更についての情報を示します。使用している Sun Cluster ソフトウェアのリリースによっては、付属の Sun Cluster マニュアルにこれらの製品名変更が反映されていない場合があります。
Sun Cluster 3.2 ソフトウェアは、Solaris Cluster 3.2 および Sun Java Availability Suite に付属して配布されます。
この節では、Sun Cluster 3.2 ソフトウェアでサポートされるソフトウェアとメモリーの必要条件について説明します。
メモリーの必要条件 – Sun Cluster 3.2 ソフトウェアでは、クラスタノードごとに次のメモリー要件が必要です。
512MB 以上の物理 RAM (2GB 標準)
6GB 以上のハードディスクドライブ空き容量
物理メモリーとハードディスクドライブの実際の必要条件は、インストールされているアプリケーションによって決まります。追加のメモリーおよびハードディスクドライブの必要条件を計算するには、アプリケーションのマニュアルを参照するか、アプリケーションベンダーにお問い合わせください。
RSMAPI – Sun Cluster 3.2 ソフトウェアは、RSM タイプのインターコネクト (PCI-SCI) などで Remote Shared Memory Application Programming Interface (RSMAPI) をサポートします。
Solaris オペレーティングシステム (OS) – Sun Cluster 3.2 ソフトウェアおよび定足数サーバーソフトウェアには、Solaris OS の次のバージョン以降が必要です。
Solaris 9 – Solaris 9 9/05 SPARC のみ。
Solaris 10 – Solaris 10 11/06。
Solaris Trusted Extensions
Sun Cluster 3.2 は、クラスタ内で Solaris 非大域ゾーンをサポートしています。Solaris 10 11/06 には、Solaris Trusted Extensions のサポートが含まれています。Solaris Trusted Extensions は、非大域ゾーンも使用します。非大域ゾーンを使用した Sun Cluster と Solaris Trusted Extensions のインタラクションはテストされていません。これらの技術を使用する場合は、慎重に作業を進めることをお勧めします。
ボリューム管理ソフトウェア
プラットフォーム |
オペレーティングシステム |
ボリュームマネージャー |
クラスタ機能 |
---|---|---|---|
SPARC |
Solaris 9 |
Solaris ボリュームマネージャー。 |
Solaris Volume Manager for Sun Cluster。 |
VERITAS Volume Manager 4.1。このサポートには、VxVM 4.1 MP2 が必要です。 |
VERITAS Volume Manager 4.1 クラスタ機能。 |
||
VERITAS Storage Foundation 4.1 の一部として提供される VERITAS Volume Manager コンポーネント。このサポートには、VxVM 4.1 MP2 が必要です。 |
VERITAS Volume Manager 4.1 クラスタ機能。 |
||
VERITAS Storage Foundation 5.0 の一部として提供される VERITAS Volume Manager コンポーネント。このサポートには、VxVM 5.0 MP1 が必要です。 |
VERITAS Volume Manager 5.0 クラスタ機能。 |
||
Solaris 10 |
Solaris ボリュームマネージャー。 |
Solaris Volume Manager for Sun Cluster。 |
|
VERITAS Volume Manager 4.1。このサポートには、VxVM 4.1 MP2 が必要です。 |
VERITAS Volume Manager 4.1 クラスタ機能付き。 |
||
VERITAS Volume Manager 4.1。このサポートには、VxVM 4.1 MP2 が必要です。 |
VERITAS Volume Manager 4.1 クラスタ機能付き。 |
||
VERITAS Storage Foundation 5.0 の一部として提供される VERITAS Volume Manager コンポーネント。このサポートには、VxVM 5.0 MP1 が必要です。 |
VERITAS Volume Manager 5.0 クラスタ機能。 |
||
x86 |
Solaris 10 |
Solaris ボリュームマネージャー。 |
Solaris Volume Manager for Sun Cluster。 |
VERITAS Storage Foundation 4.1 の一部として提供される VERITAS Volume Manager コンポーネント。 |
該当なし - Sun Cluster 3.2 は x86 プラットフォーム上で VxVM クラスタ機能をサポートしていません。 |
ファイルシステム
Sun StorEdgeTM Availability Suite 10
Sun Management Center 3.6.1
データサービス (エージェント) – サポートされるデータサービスとアプリケーションのバージョンについては、ご購入先にお問い合わせください。
マニュアルページおよびウィザードオンラインヘルプを含むデータサービスのマニュアルは、英語以外の言語に翻訳されなくなりました。
次の Sun Cluster データサービスは非大域ゾーンをサポートしています。
Sun Cluster Data Service for Apache
Sun Cluster Data Service for Apache Tomcat
Sun Cluster Data Service for DHCP
Sun Cluster Data Service for Domain Name Service (DNS)
Sun Cluster Data Service for Kerberos
Sun Cluster Data Service for mySQL
Sun Cluster Data Service for N1 Grid Service Provisioning Server
Sun Cluster Data Service for Oracle
Sun Cluster Data Service for Oracle Application Server
Sun Cluster HA for PostgreSQL
Sun Cluster Data Service for Samba
Sun Cluster Data Service for Sun Java System Application Server
Sun Cluster Data Service for Sun Java System Message Queue Server
Sun Cluster Data Service for Sun Java System Web Server
Sun Java System Directory Server 5.0 および 5.1 を使用する Sun Cluster HA for Sun JavaTM System Directory Server のバージョンに関する手順は、『Sun Cluster 3.1 Data Service for Sun ONE Directory Server』にあります。5.1 バージョンよりあとの Sun Java System Directory Server については、Sun Java System Directory Server 製品のマニュアルを参照してください。
次のデータサービスは、この Sun Cluster リリースの Solaris 10 ではサポートされていません。
Sun Cluster Data Service for Agfa IMPAX
Sun Cluster Data Service for SWIFT Alliance Access
Sun Cluster Data Service for SWIFT Alliance Gateway
Sun Cluster データサービスとリソースタイプの一覧は、次のとおりです。
データサービス |
Sun Cluster リソースタイプ |
---|---|
Sun Cluster HA for Agfa IMPAX |
SUNW.gds |
Sun Cluster HA for Apache |
SUNW.apache |
Sun Cluster HA for Apache Tomcat |
SUNW.gds |
Sun Cluster HA for BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA for DHCP |
SUNW.gds |
Sun Cluster HA for DNS |
SUNW.dns |
Sun Cluster HA for MySQL |
SUNW.gds |
Sun Cluster HA for NetBackup |
SUNW.netbackup_master |
Sun Cluster HA for NFS |
SUNW.nfs |
Sun Cluster Oracle Application Server |
SUNW.gds |
Sun Cluster HA for Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA for Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Sun Cluster Support for Oracle Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_svm SUNW.rac_cvm SUNW.rac_hwraid SUNW.oracle_rac_server SUNW.oracle_listener SUNW.scaldevicegroup SUNW.scalmountpoint SUNW.crs_framework SUNW.scalable_rac_server_proxy |
Sun Cluster HA for PostgreSQL |
SUNW.gds |
Sun Cluster HA for Samba |
SUNW.gds |
Sun Cluster HA for SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA for SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA for SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA for SAP Web Application Server |
SUNW.sapenq SUNW.saprepl SUNW.sapscs SUNW.sapwebas |
Sun Cluster HA for Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA for Solaris Containers |
SUNW.gds |
Sun Cluster HA for N1 Grid Engine |
SUNW.gds |
8.1 よりも前のバージョンでサポートされる Sun Cluster HA for Sun Java System Application Server |
SUNW.s1as |
8.1 バージョンでサポートされる Sun Cluster HA for Sun Java System Application Server |
SUNW.jsas SUNW.jsas-na |
Sun Cluster HA for Sun Java System Application Server EE (4.4 よりも前のバージョンの HADB をサポート) |
SUNW.hadb |
Sun Cluster HA for Sun Java System Application Server EE (4.4 バージョンの HADB をサポート) |
SUNW.hadb_ma |
Sun Cluster HA for Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA for Sun Java System Web Server |
SUNW.iws |
Sun Cluster HA for SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA for SWIFTAlliance Gateway |
SUNW.gds |
Sun Cluster HA for Sybase ASE |
SUNW.sybase |
Sun Cluster HA for WebLogic Server |
SUNW.wls |
Sun Cluster HA for WebSphere MQ |
SUNW.gds |
Sun Cluster HA for WebSphere MQ Integrator |
SUNW.gds |
Sun Cluster のセキュリティー強化では、Sun BluePrintsTM プログラムが推奨している Solaris オペレーティングシステムの強化技術を使用し、クラスタの基本的なセキュリティー強化を達成しています。Solaris Security Toolkit は Sun Cluster のセキュリティー強化を自動的に実装します。
Sun Cluster のセキュリティー強化のマニュアルは、http://www.sun.com/blueprints/0203/817-1079.pdf で入手できます。また、http://www.sun.com/software/security/blueprints からこの文書にアクセスすることもできます。この URL から「Architecture」というタイトルまでスクロールして、「Securing the Sun Cluster 3.x Software」という文書を探します。この文書は、Solaris 環境における Sun Cluster 3.x 配備を安全にする方法を説明します。この文書には、Solaris Security Toolkit など、Sun のセキュリティー専門家たちが推薦している最良のセキュリティーテクニックの使い方も記載されています。次のデータ サービスは、Sun Cluster セキュリティー強化によってサポートされています。
Sun Cluster HA for Apache
Sun Cluster HA for Apache Tomcat
Sun Cluster HA for BEA WebLogic Server
Sun Cluster HA for DHCP
Sun Cluster HA for DNS
Sun Cluster HA for MySQL
Sun Cluster HA for N1 GridEngine
Sun Cluster HA for NetBackup
Sun Cluster HA for NFS
Sun Cluster HA for Oracle E-Business Suite
Sun Cluster HA for Oracle
Sun Cluster Support for Oracle Real Application Clusters
Sun Cluster HA for PostgreSQL
Sun Cluster HA for Samba
Sun Cluster HA for Siebel
Sun Cluster HA for Solaris Containers
Sun Cluster HA for SWIFTAlliance Access
Sun Cluster HA for SWIFTAlliance Gateway
Sun Cluster HA for Sun Java System Directory Server
Sun Cluster HA for Sun Java System Message Queue
Sun Cluster HA for Sun Java System Messaging Server
Sun Cluster HA for Sun Java System Web Server
Sun Cluster HA for Sybase ASE
Sun Cluster HA for WebSphere MQ
Sun Cluster HA for WebSphere MQ Integrator
次に示す既知の問題とバグは、Sun Cluster 3.2 リリースの処理に影響を与えます。バグおよび問題は次のカテゴリに分類しています。
問題の概要: -clnode remove --force コマンドはメタセットからノードを削除するべきですが、できません。『Sun Cluster のシステム管理 (Solaris OS 版)』 には、クラスタからノードを削除するための手順が記載されています。これらの手順は、clnode remove を実行する前に、 metaset コマンドを実行して Solaris ボリュームマネージャーディスクセットを削除する方法を説明しています。
対処方法: 手順に従わなかった場合は、通常の方法で CCR から無効なノードデータをクリアしなければならない場合があります。アクティブなクラスタノードから、 metaset コマンドを使用して Solaris ボリュームマネージャーディスクセットからノードをクリアします。続いて clnode clear --force obsolete_nodename を実行します。
問題の概要: Solaris 10 End User ソフトウェアグループの SUNWCuser を使用してインストールされたクラスタで、scsnapshot コマンドを実行すると、次のエラーが表示されて失敗する場合があります。
# scsnapshot -o … /usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl: not found |
対処方法: 次のいずれかを行います。
Solaris Entire Distribution ソフトウェアグループをインストールする。
Perl パッケージ SUNWpl5u、SUNWpl5v、SUNWpl5p をインストールする。
問題の概要: 共有アドレスリソースの Auxnodelist プロパティーは、共有アドレスリソースの作成時には使用できません。これは、この共有アドレスネットワークリソースに依存するスケーラブルリソースの作成時に、検証エラーと SEGV を引き起こします。スケーラブルリソースの検証エラーメッセージは次の形式です。
Method methodname (scalable svc) on resource resourcename stopped or terminated due to receipt of signal 11 |
また、ssm_wrapper からコアファイルが生成されます。ユーザーは Auxnodelist プロパティーを設定できないため、共有アドレスをホストできてもプライマリとしては機能しないクラスタノードを識別できません。
対処方法: あるノード上で、Auxnodelist プロパティーを指定せずに共有アドレスリソースを再度作成します。続いてスケーラブルリソースの作成コマンドを再度実行し、ネットワークリソースとしてユーザーが再度作成した共有アドレスリソースを使用します。
問題の概要: 定足数サーバーコマンド clquorumserver は、次の再起動用の起動メカニズムの状態を正しく設定しません。
対処方法: 次の作業を実行して定足数サーバーソフトウェアを起動または停止します。
quorumserver サービスの状態を表示します。
# svcs -a | grep quorumserver |
サービスが無効である場合、出力は次のような形式になります。
disabled 3:33:45 svc:/system/cluster/quorumserver:default |
定足数サーバーソフトウェアを起動します。
quorumserver サービスが disabled の場合、svcadm enable コマンドを使用します。
# svcadm enable svc:/system/cluster/quorumserver:default |
quorumserver サービスが online の場合、clquorumserver コマンドを使用します。
# clquorumserver start + |
quorumserver サービスを無効にします。
# svcadm disable svc:/system/cluster/quorumserver:default |
定足数サーバーソフトウェアを起動します。
# clquorumserver start + |
/etc/rc2.d/.S99quorumserver ファイルを /etc/rc2.d/S99quorumserver に名前変更します。
# mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver |
定足数サーバーソフトウェアを停止します。
# clquorumserver stop + |
定足数サーバーソフトウェアを起動します。
# mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver |
問題の概要: Sun Cluster HA for Application Server でノードエージェント (NA) リソースを作成する場合、DAS リソースに対する依存関係が設定されていなくてもリソースは作成されます。NA リソースを起動するには、DAS リソースがオンラインになっている必要があるため、依存関係が設定されていない場合、コマンドはエラーになる必要があります。
対処方法: NA リソースの作成時には、DAS リソースに対するリソースの依存関係を必ず設定してください。
問題の概要: HA MySQL パッチは、mysql_config ファイル内に MYSQL_DATADIR という新しい変数を追加します。この新しい変数は、MySQL 構成ファイルの my.conf ファイルが保存されているディレクトリを指す必要があります。変数が正しく構成されていない場合、mysql_register でのデータベースの準備に失敗します。
対処方法: MYSQL_DATADIR 変数が、MySQL 構成ファイルの my.conf が保存されているディレクトリを指すようにします。
問題の概要: InfiniBand がクラスタトランスポートとして使用され、アダプタごとに 2 つのポートを持つ各ノード上に 2 つのアダプタがあり、さらに合計 2 つのスイッチがある場合、scinstall ユーティリティーのアダプタ自動検出は、同じアダプタを使用する 2 つのトランスポートパスを提示する可能性があります。
対処方法: 各ノード上でトランスポートアダプタを手動で指定します。
問題の概要: IPv6 スケーラブルサービスパケットの転送に必要な、インターコネクト上の IPv6 の plumb はデフォルトでは有効になっていません。ifconfig コマンドを使用する際に確認される IPv6 インタフェースは、デフォルトではインターコネクトアダプタ上で plumb されません。
対処方法: 手動で IPv6 スケーラブルサービスサポートを有効にします。
IPv6 サービスを実行するためにすべてのクラスタノードを準備したことを確認します。この作業には、ネットワークインタフェース、サーバー/クライアントアプリケーションソフトウェア、ネームサービス、およびルーティングインフラストラクチャーの適切な構成が含まれます。適切に構成しないと、ネットワークアプリケーションの予期せぬ障害が発生する場合があります。詳細は、IPv6 サービスに関する Solaris システム管理のマニュアルを参照してください。
各ノード上で次のエントリを /etc/system ファイルに追加します。
set cl_comm:ifk_disable_v6=0 |
各ノード上で、インターコネクトアダプタに対する IPv6 の plumb を有効にします。
# /usr/cluster/lib/sc/config_ipv6 |
config_ipv6 ユーティリティーは、リンクローカルアドレスを持つすべてのクラスタインターコネクトアダプタ上で IPv6 インタフェースを起動します。このユーティリティーは、インターコネクト上での IPv6 スケーラブルサービスパケットの適切な転送を有効にします。
また、各クラスタノードを再起動して構成の変更を有効にすることもできます。
問題の概要: 直接接続トランスポートを使用している XML ファイルを使用して clnode add コマンドが試行された場合、コマンドはケーブル情報を誤って解釈し、間違った構成情報を追加します。その結果、接続しているノードはクラスタに接続できません。
対処方法: クラスタトランスポートが直接接続されている場合は、scinstall コマンドを使用してノードをクラスタに追加します。
問題の概要: scinstall コマンドは /etc/nsswitch.conf ファイルを更新して、hosts および netmasks データベースの cluster エントリを追加します。この変更は、大域ゾーンの /net/nsswitch.conf ファイルを更新します。ただし、非大域ゾーンの作成およびインストール時には、非大域ゾーンは元の /etc/nsswitch.conf ファイルのコピーを受け取ります。非大域ゾーン上の /etc/nsswitch.conf ファイルには、hosts および netmasks データベースの cluster エントリはありません。getXbyY クエリーを使用して非大域ゾーン内部からクラスタ固有のプライベートホスト名および IP アドレスを解決する試みは、すべて失敗します。
対処方法: 非大域ゾーンの /etc/nsswitch.conf ファイルで、hosts および netmasks データベースの cluster エントリを手動で更新します。これによって、クラスタ固有のプライベートホスト名と IP アドレスの解決は、非大域ゾーン内でも使用できるようになります。
問題の概要: 定足数サーバー管理プログラム (clquorumserver など) 用に翻訳されたメッセージは、コアのローカライズパッケージの一部として提供されています。その結果、定足数サーバーのメッセー ジが英語で表示されます。定足数サーバーのローカライズパッケージは、本来コアローカライズパッケージとは別に提供され、定足数サーバーシステムにインストールする必要があります。
対処方法: 定足数サーバーソフトウェアがインストールされているホストに、次のパッケージをインストールします。
SUNWcsc (簡体中国語)
SUNWdsc (ドイツ語)
SUNWesc (スペイン語)
SUNWfsc (フランス語)
SUNWhsc (繁体中国語)
SUNWjsc (日本語)
SUNWksc (韓国語)
定足数サーバーで日本語のマニュアルページが必要である場合は、SUNWjscman (日本語マニュアルページ) パッケージをインストールします。
問題の概要: Sun Cluster 3.2 インストーラは、ソフトウェアの Sun Cluster 3.2 簡体中国語バージョンをインストールする際に、スワップ不足に関する警告メッセージを表示します。システム要件の確認画面で、インストーラは 0.0K バイトのサイズの正しくないスワップサイズを表示します。
対処方法: スワップサイズがシステム要件より大きい場合は、この問題を無視してもかまいません。C、つまり英語ロケールの SC 3.2 インストーラをインストールに使用できます。C ロケールではスワップサイズを正確に確認します。
問題の概要: 実行時リンク環境に /sapmnt/SAPSID/exe パスが含まれていない場合、cleanipc は失敗します。
対処方法: Solaris ルートユーザーとして、/sapmnt/SAPSID/exe パスを ld.config ファイルのデフォルトライブラリに追加します。
32 ビットアプリケーション向けに実行時リンク環境のデフォルトライブラリパスを構成するには、次のコマンドを入力します。
# crle -u -l /sapmnt/SAPSID/exe |
64 ビットアプリケーション向けに実行時リンク環境のデフォルトライブラリパスを構成するには、次のコマンドを入力します。
# crle -64 -u -l /sapmnt/SAPSID/exe |
問題の概要: クラスタ停止の実行時に、ノードの 1 つが UCMMD よりもわずかに早くクラスタから離脱した場合、1 つまたは複数のノード上で UCMMD は再構成に移行する可能性があります。このような場合、UCMMD がリターンステップを実行しようとする間に、シャットダウンによりノード上で rpc.md コマンドが停止します。リターンステップでは、metaclust コマンドは RPC タイムアウトになり、rpc.mdcommd プロセスが見つからないため、エラーによりステップを終了します。このエラーが原因で UCMMD はノードを中止し、ノードがパニックになる場合があります。
対処方法: この問題は無視してもかまいません。ノードがバックアップを起動した場合、以前の再構成でエラーが発生したこととは関係なく、Sun Cluster ソフトウェアはこの状態を検出し、UCMMD の起動を許可します。
問題の概要: Sun Cluster リソース検証は、論理ホスト名または共有アドレスリソースの作成時には、netiflist プロパティーの IPMP グループのホスト名を受け付けません。
対処方法: 論理ホスト名および共有アドレスリソースの作成時に IPMP グループ名を指定する場合は、ノード名の代わりにノード ID を使用してください。
問題の概要: この問題が生じるのは、元のディスクがルートでカプセル化され、Solaris 9 8/03 OS 上の VxVM 3.5 から Solaris 10 6/06 OS 上の VxVM 5.0 へのライブアップグレートが試行された場合です。vxlufinish スクリプトは次のエラーを表示して失敗します。
#./vslufinish -u 5.10 VERITAS Volume Manager VxVM 5.0 Live Upgrade finish on the Solairs release <5.10> Enter the name of the alternate root diskgroup: altrootdg ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory Killed ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176 -c -p 5555 -g -g altrootdg rootdisk=c0t1d0s2 Please install, if 5.0 or higher version of VxVM is not installed on alternate bootdisk. |
対処方法: 代わりに、標準アップグレード、またはデュアルパーティションアップグレード方式を使用します。
今後 VxVM 5.0 用の Sun Cluster 3.2 ライブアップグレードが利用可能になるかどうかについては、Sun のサポートまたはご購入先にお問い合わせください。
問題の概要: ライブアップグレード時に lucreate および luupgrade コマンドが、/global/.devices/node@N エントリに対応する代替ブート環境内の DID 名の変更に失敗します。
対処方法: ライブアップグレードを開始する前に、各クラスタノードで次の手順を実行します。
スーパーユーザーとしてログインします。
/etc/vfstab ファイルをバックアップします。
# cp /etc/vfstab /etc/vfstab.old |
/etc/vfstab ファイルを編集するために開きます。
/global/.device/node@N に対応する行を見つけます。
グローバルデバイスエントリを編集します。
DID 名を物理名に変更します。
/dev/did/{r}dsk/dYsZ を /dev/{r}dsk/cNtXdYs Z に変更します。
global をエントリから削除します。
次の例は、物理デバイス名に変更され、global エントリが削除された、/global/.devices/node@s に対応する DID デバイス d3s3 の名前を示しています。
Original: /dev/did/dsk/d3s3 /dev/did/rdsk/d3s3 /global/.devices/node@2 ufs 2 no global Changed: dev/dsk/c0t0d0s3 /dev/rdsk/c0t0d0s3 /global/.devices/node@2 ufs 2 no - |
すべてのクラスタノードで /etc/vfstab ファイルが変更されたら、クラスタのライブアップグレードを実行しますが、アップグレードされた代替ブート環境から再起動する前に中止します。
アップグレードされていない現在のブート環境の各ノードで、元の /etc/vfstab ファイルを復元します。
# cp /etc/vstab.old /etc/vfstab |
代替ブート環境で、/etc/vfstab ファイルを開いて編集します。
/global/.devices/node@N に対応する行を見つけ、エントリ末尾のダッシュ (-) を global という単語で置き換えます。
/dev/dsk/cNtXdYsZ /dev/rdsk/cNtXdYsZ /global/.devices/node@N ufs 2 no global |
アップグレードされた代替ブート環境からノードを再起動します。
/etc/vfstab ファイル内の DID 名は、自動的に置き換えられます。
問題の概要: この問題は、Sun Cluster ライブアップグレード時に VERITAS Volume Manager (VxVM) をアップグレードする際に見られます。vxlustart スクリプトは、前のバージョンから Solaris OS と VxVM をアップグレードするために使用されます。スクリプトは次のようなエラーメッセージを表示して失敗します。
# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage VERITAS Volume Manager VxVM 5.0. Live Upgrade is now upgrading from 5.9 to <5.10> … ERROR: Unable to copy file systems from boot environment <sorce.8876> to BE <dest.8876>. ERROR: Unable to populate file systems on boot environment <dest.8876>. ERROR: Cannot make file systems for boot environment <dest.8876>. ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 -m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs -m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs -m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876 |
対処方法: クラスタを VxVM 5.0 にアップグレードする場合は、標準アップグレードまたはデュアルパーティションアップグレード方式を使用します。
今後 VxVM 5.0 用の Sun Cluster 3.2 ライブアップグレードが利用可能になるかどうかについては、Sun のサポートまたはご購入先にお問い合わせください。
問題の概要: VERITAS Volume Manager (VxVM) を実行するクラスタでは、ルートディスクがカプセル化されている場合、次のいずれかのソフトウェアの標準アップグレードまたはデュアルパーティションアップグレードは失敗します。
Solaris OS の異なるバージョンへのアップグレード
VxVM のアップグレード
Sun Cluster ソフトウェアのアップグレード
クラスタノードはパニックになり、アップグレード後は起動できなくなります。これは、アップグレード時に VxVM により行われるメジャー番号またはマイナー番号の変更が原因です。
対処方法: アップグレードを開始する前にルートディスクのカプセル化を解除します。
上記の手順に正しく従わない場合、アップグレード中のすべてのノード上で予期せぬ深刻な問題が生じる場合があります。また、ルートディスクのカプセル化解除とカプセル化は、自動的に (毎回) ノードの追加の再起動の原因となるため、アップグレード時の必要な再起動の回数が多くなります。
問題の概要: Solaris 9 版の Sun Cluster Version 3.1 から Solaris 10 版の Sun Cluster Version 3.2 へライブアップグレードしたあと、クラスタソフトウェアでゾーンを正しく使用できません。問題は、Sun Cluster パッケージ用に pspool データが作成されないことです。このため、SUNWsczu のような、非大域ゾーンに伝播されるべきパッケージが正しく伝播されません。
対処方法: Sun Cluster パッケージが scinstall -R コマンドを使ってアップグレードされてから、クラスタがクラスタモードにブートされるまでの間に、後述のスクリプトを 2 回実行します。
Sun Cluster フレームワークパッケージ用に 1 回
Sun Cluster データサービスパッケージ用に 1 回
次のいずれかの方法で、このスクリプトを準備して実行します。
Sun Cluster フレームワークパッケージ用の変数を設定し、スクリプトを実行します。次に、データサービスパッケージ用の PATHNAME 変数を変更し、スクリプトを再実行します。
フレームワークパッケージ用に設定された変数を持つスクリプトと、データサービスパッケージ用に設定された変数を持つスクリプトを作成します。次に、両方のスクリプトを実行します。
スーパーユーザーとしてログインします。
次の内容のスクリプトを作成します。
#!/bin/ksh typeset PLATFORM=${PLATFORM:-`uname -p`} typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages} typeset BASEDIR=${BASEDIR:-/} cd $PATHNAME for i in * do if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1 then mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i fi done
変数 PLATFORM、PATHNAME、および BASEDIR を設定します。
これらの変数を環境変数として設定するか、または直接スクリプト内の値を変更します。
プラットフォームの名前です。たとえば、sparc や x86 です。デフォルトで、PLATFORM 変数は uname -p コマンドの出力に設定されます。
Sun Cluster フレームワークまたはデータサービスパッケージをインストールできるデバイスへのパスです。この値は、pkgadd コマンドの -d オプションに対応します。
たとえば、Sun Cluster フレームワークパッケージの場合、この値は次のような形式になります。
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages |
データサービスパッケージの場合、この値は次のような形式になります。
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages |
ルートパスとして使用し、pkgadd コマンドの -R オプションに対応する、ディレクトリのフルパス名です。ライブアップグレードの場合は、この値を、scinstall コマンドの -R オプションで使用されるルートパスに設定します。デフォルトで、BASEDIR 変数は、ルート (/) ファイルシステムに設定されます。
Sun Cluster フレームワークパッケージ用に 1 回、データサービスパッケージ用に 1 回、スクリプトを実行します。
スクリプトの実行後、各パッケージのコマンドプロンプトに次のメッセージが表示されます。
Transferring pkgname package instance |
パッケージ用の pspool ディレクトリがすでに存在する場合、またはスクリプトが同じパッケージセット用に 2 回実行された場合、次のエラーがコマンドプロンプトに表示されます。
Transferring pkgname package instance pkgadd: ERROR: unable to complete package transfer - identical version of pkgname already exists on destination device |
このメッセージは無害なので、無視しても問題ありません。
フレームワークパッケージとデータサービスパッケージの両方用にスクリプトを実行したあと、ノードをクラスタモードで起動します。
問題の概要: ノードが既存のクラスタノードと同じパッチを持っていることを確認せずに 新しいクラスタノードを追加すると、クラスタノードにパニックが発生する可能性があります。
対処方法: ノードをクラスタに追加する前に、新しいノードが既存のクラスタノードと同じレベルに最初にパッチ適用されていることを確認します。これを行わないと、クラスタノードにパニックが発生する可能性があります。
Sun Cluster 構成のパッチに関する情報を以下に示します。Sun Cluster 3.2 ソフトウェアにアップグレードしている場合は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の第 8 章「Sun Cluster ソフトウェアのアップグレード」を参照してください。Sun Cluster 3.2 コア パッチを適用しても、ソフトウェアを Sun Cluster 3.2 リリースにアップグレードするのと同じ結果にはなりません。
パッチを適用または削除する前に、パッチの README を参照してください。
パッチ (ノード) 再起動メソッドを使用して Sun Cluster コアパッチ 125510 (S9/SPARC)、125511 (S10/SPARC)、または 125512 (S19/x64) をインストールする場合は、パッチの上位バージョンをインストールする前に -02 バージョンのパッチをインストールしている必要があります。-02 パッチをインストールせずに -03 以降 (存在する場合) のパッチをインストールしようとする場合は、再起動用クラスタメソッドを使用する必要があります。
パッチ適用シナリオの例については、次のリストを参照してください。
SPARC 上で Solaris 10 オペレーティングシステムを使用し、パッチ 125511-01 が適用されている Sun Cluster 3.2 ソフトウェアに 125511-03 以降のパッチをインストールするには、再起動用ノードメソッドまたは再起動用クラスタメソッドが使用できます。
SPARC 上で Solaris 10 オペレーティングシステムを使用し、パッチ 125511-02 を適用していない Sun Cluster 3.2 ソフトウェアに 125511-03 以降のパッチをインストールしようとする場合は、次のいずれかを選択します。
再起動用クラスタメソッドを使用して、125511-03 をインストールします。
再起動用ノードメソッドを使用して 125511-02 をインストールしてから、再起動用ノードメソッドを使用して 125511-03 をインストールします。
Sun Cluster 製品に必要なパッチを確認してダウンロードするためには、SunSolveTM ユーザーとして登録済みでなければなりません。SunSolve アカウントをまだ入手していない場合は、Sun のサービス担当者またはセールスエンジニアに問い合わせるか、あるいは http://sunsolve.sun.com でオンライン登録を行なってください。
Sun Cluster 3.2 コアパッチを適用するには、次の手順を完了します。
コアパッチ用の通常の再起動用パッチ手順を使用して、パッチをインストールします。
パッチがすべてのノードに正しくインストールされ、正常に機能していることを検証します。
このパッチで更新される、新しいバージョンのリソースタイプ、SUNW.HAStoragePlus、SUNW.ScalDeviceGroup、および SUNW.ScalMountPoint を登録します。これらのタイプの既存のリソースすべてに、新バージョンのリソースタイプへのアップグレードを実行します。
リソースタイプの登録については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「リソースタイプの登録」を参照してください。
Sun Cluster 3.2 コアパッチが削除された場合は、手順 3 でアップグレードしたリソースすべてを、以前のリソースタイプのバージョンにダウングレードする必要があります。ダウングレードの手順を実行するには、これらのサービスの停止時間を計画しておく必要があります。したがって、Sun Cluster 3.2 コアパッチをクラスタに永続的に確定する準備ができるまでは、手順 3 を実行しないでください。
Sun Cluster 3.2 コアパッチを削除するには、次の手順を完了します。
クラスタ上のリソースタイプをリストします。
# clrt list |
リストが SUNW.HAStoragePlus:5、SUNW.ScalDeviceGroup:2、または SUNW.ScalMountPoint:2 を返す場合は、これらのリソースタイプを削除する必要があります。リソースタイプの削除の方法については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「リソースタイプを削除する」を参照してください。
すべてのクラスタノードを、非クラスタのシングルユーザーモードで再起動します。
クラスタノードを非クラスタのシングルユーザーモードで再起動する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』の『Sun Cluster のシステム管理 (Solaris OS 版)』の「非クラスタモードでクラスタノードを起動する」を参照してください。
Sun Cluster 3.2 コアパッチを、パッチをインストールした各ノードから削除します。
# patchrm patch-id |
Sun Cluster 3.2 コアパッチを削除したすべてのノードを、クラスタモードで再起動します。
Sun Cluster 3.2 コアパッチを削除したすべてのノードを、影響を受けないノードよりも前に再起動することにより、クラスタが CCR 内の正しい情報で確実に構成されます。クラスタ上のすべてのノードにコアパッチが適用されている場合、各ノードを任意の順序でクラスタモードで再起動できます。
ノードをクラスタモードで再起動する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』の『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタノードを再起動する」を参照してください。
残りのノードをクラスタモードで再起動します。
PatchPro パッチ管理技術を Patch Manager 2.0 (Solaris 9 OS) および Sun Update Connection 1.0 (Solaris 10 OS) として使用できるようになりました。
Solaris 9 - Sun Patch Manager 2.0 は、SunSolve (http://wwws.sun.com/software/download/products/40c8c2ad.html) から無料でダウンロードできます。Sun Patch Manager のマニュアルは、http://ttp://docs.sun.com/app/docs/coll/1152.1で提供されています。
Solaris 10 - Sun Update Connection は、パッチ ID 121118-05 (SPARC) または 121119-05 (x86) または SunSolve からのダウンロードとして提供されています。詳細は、http://www.sun.com/service/sunupdate/gettingstarted.htmlを参照してください。Sun Update Connection のマニュアルは、http://docs.sun.com/app/docs/coll/1320.2 で提供されています。
Solaris 10 OS のすべてのパッチ管理オプションについてのその他の情報は、http://www.sun.com/service/sunupdate/ を参照してください。Sun パッチ管理ツールの使い方についてのその他の情報は、http://docs.sun.com の『Solaris のシステム管理 (基本編)』 で提供されています。インストールした Solaris OS リリースに対して発行されているこのマニュアルのバージョンを参照してください。
一部のパッチをノードが非クラスタモードのときに適用しなければならない場合は、パッチの手順でクラスタ全体をシャットダウンする必要がある場合以外は、一度に 1 ノードずつ、順次適用できます。ノードを準備して、非クラスタモードで起動する場合は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「再起動パッチを適用する (ノード)」の手順に従ってください。インストールを簡単にするために、非クラスタモードにするノードにすべてのパッチを一度に適用することを検討してください。
SunSolve Online Web サイトには、サン製品のパッチやソフトウェア、ファームウェアに関する最新情報が常時掲載されています。現在サポートされるソフトウェア、ファームウェア、およびパッチの最新のリビジョンについては、SunSolve Online サイト (http://sunsolve.sun.com ) にアクセスしてください。
Sun Cluster 3.2 のサードパーティによるパッチ情報は、SunSolve Info Doc により提供されています。この Info Doc ページでは、Sun Cluster 3.2 環境で使用する特定のハードウェアに関するサードパーティによるパッチ情報を提供しています。この Info Doc を見つけるには、SunSolve にログオンします。SunSolve ホームページから、検索基準ボックスに Sun Cluster 3.x Third-Party Patches と入力します。
Sun Cluster 3.2 ソフトウェアをインストールし、クラスタコンポーネント (Solaris OS、Sun Cluster ソフトウェア、ボリューム管理ソフトウェア、データサービスソフトウェア、またはディスクハードウェア) にパッチを適用する前に、取得したパッチに付属する各 README ファイルを確認してください。クラスタが適切に動作するためには、すべてのクラスタノードが同じパッチレベルになっていなければなりません。
特定のパッチの適用手順およびパッチの管理に関するヒントについては、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 10 章「Sun Cluster ソフトウェアとファームウェアのパッチ」を参照してください。
日本語のマニュアルは docs.sun.com を参照してください。Sun Cluster 3.2 ユーザーマニュアルセットには次のマニュアルコレクションが含まれています。
「Solaris OS (SPARC Platform Edition) の Sun Cluster 3.2 データサービスマニュアル」
「Solaris OS (x86 Platform Edition) の Sun Cluster 3.2 データサービスマニュアル」
「Solaris OS (SPARC Platform Edition) の Sun Cluster 3.1 - 3.2 ハードウェアコレクション」
「Solaris OS (x86 Platform Edition) の Sun Cluster 3.1 — 3.2 ハードウェアコレクション」
Sun Cluster 3.2 ユーザーマニュアルは、PDF および HTML 形式で次の Web サイトから入手できます。
http://htt;://docs.sun.com/app/docs/prod/sun.cluster32
Sun Cluster 3.2 からは、個々のデータサービスに関するマニュアルは翻訳されません。個々のデータサービスに関するマニュアルは、英語でのみ提供されます。
Sun 製品資料の検索には docs.sun.com Web サイトからだけでなく検索エンジンも使用することができ、その場合は検索フィールドに次の構文を入力します。
検索語 site:docs.sun.com |
たとえば、「broker」を検索するには、次のように入力します。
broker site:docs.sun.com |
検索に java.sun.com、www.sun.com や developers.sun.com などほかの Sun Web サイトも含めるには、「docs.sun.com」の代わりに「sun.com」を検索フィールドに入力します。
パート番号 |
マニュアル名 |
---|---|
820–0335 | |
819-2969 | |
819-2972 | |
819-2974 | |
819-2973 | |
819-2968 | |
819–6811 |
『Sun Cluster クイックリファレンス』 |
819-3055 | |
819-2970 | |
819–0912 | |
819-2971 |
この節では、Sun Cluster 3.2 リリースのマニュアル、オンラインヘルプ、マニュアルページの誤りや記載漏れについて説明します。
この節では、『Sun Cluster の概念 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。
『Sun Cluster の概念 (Solaris OS 版)』の「Sun Cluster トポロジ」の節にある次の記述は、Sun Cluster 3.2 リリースにはすでに該当しません。「x86 ベースのシステムで構成された Sun Cluster は、1 つのクラスタで 2 つのノードをサポートします。」
この記述は、次のように読み替えてください。「x86 ベースのシステムで構成された Sun Cluster 構成は、Oracle RAC を実行する 1 つのクラスタでは最大 8 つのノードをサポートし、Oracle RAC を実行しない 1 つのクラスタでは最大 4 つのノードをサポートします。」
この節では、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』内の記述の誤りや記載漏れについて説明します。
Sun Cluster Geographic Edition ソフトウェアも実行しているクラスタをアップグレードする場合、Sun Cluster ソフトウェアのアップグレードを開始する前に実行すべき追加の準備手順があります。これらの手順には、Sun Cluster Geographic Edition インフラストラクチャーのシャットダウンが含まれます。アップグレードする前に、『Sun Cluster Geographic Edition のインストール』の「Sun Cluster Geographic Edition ソフトウェアのアップグレード」を参照してください。これらの手順には、いつ Sun Cluster Software Installation Guide に戻って Sun Cluster ソフトウェアアップグレードを実行するべきかも記述されています。
この節では、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。
『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「リソースタイププロパティー」 で、Failover リソースプロパティーの説明に、非大域ゾーンでのスケーラブルサービスのサポートに関する記述が抜けています。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
この節では、『Sun Cluster Data Service for MaxDB Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。
Sun Cluster Data Service for MaxDB は、SPARC および x86 ベースのシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service for MaxDB ガイドに対して次の変更を加える必要があります。次の手順は、大域ゾーンで実行するように構成されたクラスタ上で実行できます。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述のように不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、 /etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに MaxDB グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、MaxDB ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home maxdb user |
MaxDB が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for MaxDB が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な MaxDB ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる MaxDB には不要です。
大域ゾーンからすべてのローカルゾーンノードに、/etc/opt/sdb をコピーします。この手順は、非大域ゾーンにインストールされる MaxDB には不要です。
大域ゾーンからすべてのローカルゾーンノードに、/var/spool/sql をコピーします。この手順は、非大域ゾーンにインストールされる MaxDB には不要です。
x86 ベースシステムの場合に限り、MaxDB を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/MaxDBSystemName/exe を実行します。
この節では、『Sun Cluster Data Service for SAP Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。
Sun Cluster Data Service for SAP は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service for SAP ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、 /etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに SAP グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、SAP ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home sap user |
SAP が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for SAP が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な SAP ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる SAP には不要になります。
x86 ベースシステムの場合に限り、SAP を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/SAPSystemName/exe を実行します。
この節では、『Sun Cluster Data Service for SAP liveCache Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。
Sun Cluster Data Service for SAP liveCache は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service SAP liveCache ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、 /etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに SAP liveCache グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、SAP liveCache ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home sap user |
SAP liveCache が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for SAP liveCache が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な SAP liveCache ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる SAP liveCache には不要になります。
大域ゾーンからすべてのローカルゾーンノードに、/etc/opt/sdb をコピーします。この手順は、非大域ゾーンにインストールされる SAP liveCache には不要になります。
大域ゾーンからすべてのローカルゾーンノードに、/var/spool/sql をコピーします。この手順は、非大域ゾーンにインストールされる SAP liveCache には不要になります。
x86 ベースシステムの場合に限り、SAP liveCache を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/SAPSystemName/exe を実行します。
この節では、『Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS』内の記述の誤りと記載漏れについて説明します。
SAP 7.0 および NW2004SR1 で SAP インスタンスが起動されると、sapstartsrv プロセスがデフォルトで起動されます。sapstartsrv プロセスは、Sun Cluster HA for SAP Web Application Server によって制御されません。このため、Sun Cluster HA for SAP Web Application Server による SAP インスタントの停止またはフェイルオーバー時に、sapstartsrv プロセスは停止しません。
Sun Cluster HA for SAP Web Application による SAP インスタンスの起動時に、sapstartsrv プロセスが起動されることを回避するには、startsap スクリプトを変更します。さらに、すべての Sun Cluster ノードで /etc/rc3.d/S90sapinit のファイル名を /etc/rc3.d/xxS90sapinit に変更します。
Sun Cluster Data Service for SAP Web Application Server は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service SAP Web Application Server ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、/etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに SAP Web Application Server グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、SAP Web Application Server ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home sap user |
SAP Web Application Server が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for SAP が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な SAP ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる SAP Web Application Server には不要になります。
x86 ベースシステムの場合に限り、SAP を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/SAPSystemName/exe を実行します。
非大域ゾーン用に HAStoragePlus リソースを構成するには、次の手順に従います。
クラスタファイルシステム用の /etc/vfstab ファイルのエントリには、マウントオプションに global キーワードが含まれているべきです。
HAStoragePlus リソースを使用することで高可用性を実現する予定の SAP バイナリは、非大域ゾーンからアクセス可能であるべきです。
非大域ゾーンで、さまざまなリソースグループ内のさまざまなリソースによって使用されるファイルシステムは、スケーラブルなリソースグループ内に存在する単一の HAStoragePlus リソース内に存在するようにします。スケーラブルな HAStoragePlus リソースグループのノードリストは、ファイルシステムに依存するリソースを持つアプリケーションリソースグループのノードリストのスーパーセットである必要があります。ファイルシステムに依存するこれらのアプリケーションリソースには、HAStoragePlus リソースへの強い依存関係を設定する必要があります。また、依存元のアプリケーションリソースグループには、スケーラブルな HAStoragePlus リソースグループに対する、強く肯定的なリソースグループアフィニティーを設定する必要もあります。
クラスタ内の任意のノードで、スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。
HAStoragePlus リソースを含む非大域ゾーンで、スケーラブルリソースグループを作成します。
# clresourcegroup create \ -p Maximum_primaries=m\ -p Desired_primaries=n\ [-n node-zone-list] hasp-resource-group |
リソースグループのアクティブな主ノードの最大数を指定します。
リソースグループが起動するアクティブな主ノードの数を指定します。
HAStoragePlus リソースグループのノードリストに、nodename:zonename ペアのリストを、HAStoragePlus リソースグループのノードリストとして指定します。この指定により、SAP インスタンスがオンラインになります。
追加するスケーラブルリソースグループの名前を指定します。任意の名前の先頭文字は ASCII にする必要があります。
HAStoragePlus リソースのリソースタイプを登録します。
# clresourcetype register HAStoragePlus |
HAStoragePlus のリソース hasp-resource を作成し、SAP ファイルシステムのマウントポイントと広域デバイスパスを定義します。
# clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \ -p affinityon=false -p FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource |
リソースグループの名前を指定します。
次の値が含まれます。
広域デバイスグループ名 (例: sap-dg, dsk/d5 )
広域デバイスへのパス (例: /dev/global/dsk/d5s2、/dev/md/sap-dg/dsk/d6)
次の値が含まれます。
ローカルまたはクラスタファイルシステムのマウントポイント。たとえば、/local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC など。
HAStoragePlus リソースが、有効な状態で作成されます。
SAP アプリケーションのリソースタイプを登録します。
# clresourcetype register resource-type |
追加するリソースタイプの名前を指定します。詳細は、「サポートされる製品」を参照してください。
SAP リソースグループの作成
# clresourcegroup create [-n node-zone-list] -p RG_affinities=++hastorageplus-rg resource-group-1 |
SAP サービスリソースグループを指定します。
SAP アプリケーションリソースを resource-group-1 に追加し、hastorageplus-1 に対する依存関係を設定します。
# clresource create -g resource-group-1 -t SUNW.application \ [-p "extension-property[{node-specifier}]"=value, ?] \ -p Resource_dependencies=hastorageplus-1 resource |
フェイルオーバーリソースグループをオンラインにします。
# clresourcegroup online resource-group-1 |
この節では、『Sun Cluster のシステム管理 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。
テストの目的で、アプリケーションをクラスタ外で実行するには、次の手順に従います。
定足数デバイスが Solaris Volume Manager メタセットで使用されるかどうかを判定し、定足数デバイスが scsi2 または scsi3 予約を使用するかどうかを判別します。
# clquorum show |
定足数デバイスが Solaris Volume Manager メタセット内にある場合、あとで非クラスタモードで取得されるメタセットの一部ではない定足数デバイスを新しく追加します。
# clquorum add did |
古い定足数デバイスを削除します。
# clqorum remove did |
定足数デバイスが scsi2 予約を使用する場合、scsi2 予約を古い定足数から消し込み、scsi2 予約が残っていないことを確認します。
# /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2 # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2 |
非クラスタモードで起動するノードを退避します。
# clresourcegroup evacuate -n targetnode |
HAStorage または HAStoragePlus リソースを含み、また、あとで非クラスタモードで取得するメタセットの影響を受けるデバイスやファイルシステムを含むリソースグループをすべてオフラインにします。
# clresourcegroup offline resourcegroupname |
オフラインにしたリソースグループ内のすべてのリソースを無効にします。
# clresource disable resourcename |
リソースグループを非管理状態に切り替えます。
# clresourcegroup unmanage resourcegroupname |
対応するデバイスグループをオフラインにします。
# cldevicegroup offline devicegroupname |
デバイスグループを無効にします。
# cldevicegroup disable devicegroupname |
パッシブノードを非クラスタモードで起動します。
# reboot -x |
次に進む前に、パッシブノードで起動プロセスが完了したことを確認します。
Solaris 9
ログインプロンプトが表示されることが起動プロセスの完了を意味しているので、アクションは不要です。
Solaris 10
# svcs -x |
メタセット内のディスクに scsi3 予約があるかどうかを判別します。メタセット内のすべてのディスクで次のコマンドを実行します。
# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2 |
scsi3 予約がある場合は、消します。
# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2 |
退避したノード上のメタセットを取得します。
# metaset -s name -C take -f |
メタセット上で定義されたデバイスを含むファイルシステムをマウントします。
# mount device mountpoint |
アプリケーションを起動し、必要なテストを実行します。テスト終了後、アプリケーションを停止します。
ノードを再起動し、起動プロセスが完了するまで待機します。
# reboot |
デバイスグループをオンラインにします。
# cldevicegroup online -e devicegroupname |
リソースグループを起動します。
# clresourcegroup online -eM resourcegroupname |
Sun Cluster は Solaris IP フィルタリングをサポートしますが、次の制限があります。
フェイルオーバーデータサービスのみがサポートされます。
Sun Cluster は、スケーラブルデータサービスと一緒には IP フィルタリングをサポートしません。
ステートレスフィルタリングのみがサポートされます。
NAT ルーティングはサポートされません。
ローカルアドレスの変換のための NAT の使用はサポートされます。NAT 変換は、パケットを無線で書き換えるため、クラスタソフトウェアからは見えません。
/etc/iu.ap ファイル内で、clhbsndr pfil をモジュールリストにリストするようにパブリック NIC エントリを変更します。
pfil は、リストの最後のモジュールである必要があります。
プライベートおよびパブリックネットワークに対して同じタイプのアダプタを使用している場合、/etc/iu.ap ファイルへの編集は、pfil をプライベートネットワークストリームにプッシュします。ただし、ストリーム生成時に、クラスタトランスポートモジュールは望ましくないモジュールをすべて自動的に削除するため、pfil はプライベートネットワークストリームから削除されます。
IP フィルタが非クラスタモードで確実に機能するようにするには、/etc/ipf/pfil.ap ファイルを更新します。
/etc/iu.ap ファイルに対する更新は、多少異なります。詳細は、IP フィルタのマニュアルを参照してください。
影響を受けるすべてのノードを再起動します。
ノードを順次、起動できます。
影響を受けるすべてのノード上の /etc/ipf/ipf.conf ファイルに、フィルタルールを追加します。IP フィルタルールについては、ipf(4) を参照してください。
Sun Cluster ノードにフィルタルールを追加する際は、次のガイドラインと要件に留意してください。
Sun Cluster は、ネットワークアドレスをノードからノードへフェイルオーバーします。フェイルオーバー時に特別な手順やコードは必要ありません。
論理ホストネームの IP アドレスと共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノード上で同一である必要があります。
予備ノードに関するルールは、存在しない IP アドレスを参照します。このルールは、依然として IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。
すべてのフィルタリングルールは、同じ IPMP グループ内のすべての NIC で同一である必要があります。言い換えると、ルールがインタフェース特有の場合、同じ IPMP グループ内のすべてのほかのインタフェースにも同じルールが存在する必要があります。
ipfilter SMF サービスを有効にします。
# svcadm enable /network/ipfilter:default |
この節では、『Sun Cluster データサービス開発ガイド (Solaris OS 版)』 内の記述の誤りと記載漏れについて説明します。
『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の「リソースタイププロパティー」 で、Failover リソースプロパティーの説明に非大域ゾーンでのスケーラブルサービスのサポートに関する記述が抜けています。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
Sun Cluster 3.2 リリースにおけるメソッドのタイムアウト動作の変更についての説明がありません。RGM メソッドのコールバックがタイムアウトすると、プロセスは SIGTERM シグナルではなく、SIGABRT シグナルを使用して停止されます。これにより、プロセスグループのすべてのメンバーがコアファイルを生成します。
新しいプロセスグループを作成するデータサービスメソッドを書かないでください。データサービスメソッドで新しいプロセスグループを作成する必要がある場合は、SIGTERM および SIGABRT シグナルのシグナルハンドラも書きます。シグナルハンドラが親プロセスを終了する前に、SIGTERM または SIGABRT シグナルを子プロセスグループに転送するシグナルハンドラを書きます。これにより、メソッドにより生じたすべてのプロセスが正しく終了する可能性が高くなります。
『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の第 12 章「クラスタ再構成通知プロトコル」 に、Solaris 10 OS では CNRP (Cluster Reconfiguration Notification Protocol) が大域ゾーンでのみ動作するという説明が抜けています。
『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の「データサービス作成用開発環境の設定」には、Solaris ソフトウェアグループの Developer または Entire Distribution が必要であるという注釈があります。この説明は、開発マシンに該当します。しかし、説明がクラスタ上でのデータサービスのテストについての説明のあとにあるため、データサービスが実行されているクラスタの必要条件であるかのように誤解される可能性があります。
この節では、『Sun Cluster 定足数サーバーユーザーズガイド』内の記述の誤りと記載漏れについて説明します。
次のインストールの必要条件およびガイドラインが抜けているかまたは不明確です。
Sun Cluster 用の Solaris ソフトウェアの必要条件は、定足数サーバーソフトウェアにも適用されます。
定足数サーバーでサポートされているハードウェアプラットフォームは、クラスタノードと同じです。
定足数サーバーは、定足数を提供する 1 つまたは複数のクラスタと同じハードウェアおよびソフトウェアプラットフォームで構成する必要はありません。たとえば、Solaris 9 OS を実行する x86 マシンは、Solaris 10 OS を実行する SPARC クラスタの定足数サーバーとして構成できます。
定足数サーバーをクラスタノードで構成して、ノードが属するクラスタ以外のクラスタに定足数を提供できます。ただし、クラスタノードで構成される定足数サーバーは高可用性ではありません。
この節では、Sun Cluster のマニュアルページの誤り、記載漏れ、および追加について説明します
ccp(1M) マニュアルページの次の更新された概要の節と追加されたオプションの節は、Cluster Control Panel (CCP) ユーティリティーでセキュアシェルがサポートされるようになったことについて説明しています。
形式
$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename} |
オプション
次のオプションを指定できます。
ssh 接続のためのユーザー名を指定します。このオプションは、ユーティリティーが CCP から起動される際、cconsole、crlogin、または cssh ユーティリティーに渡されます。ctelnet ユーティリティーは、このオプションを無視します。
-l オプションが指定されていない場合、CCP を起動したユーザー名が有効になります。
使用するセキュアシェルポート番号を指定します。このオプションは、 ユーティリティーが CCP から起動される際、cssh ユーティリティーに渡されます。cconsole、crlogin、および ctelnet ユーティリティーは、このオプションを無視します。
-p オプションが指定されていない場合、安全な接続のためデフォルトのポート番号 22 が使用されます。
telnet 接続の代わりに、ノードコンソールへのセキュアシェル接続を使うことを指定します。このオプションは、ユーティリティーが CCP から起動される際、cconsole ユーティリティーに渡されます。crlogin、cssh、および ctelnet ユーティリティーは、このオプションを無視します。
-s オプションが指定されていない場合、cconsole ユーティリティーは、コンソールに telnet で接続します。
-s オプションを上書きするには、cconsole グラフィカルユーザーインタフェース (GUI) で「オプション」メニューの「SSH の使用」チェックボックスを選択解除します。
cconsole、crlogin、cssh、および ctelnet を組み合わせたマニュアルページの、次の更新された「形式」の節と追加された「オプション」の節は、Cluster Control Panel ユーティリティーでセキュアシェルがサポートされるようになったことについて記述しています。
形式
$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…] $CLUSTER_HOME/bin/ctelnet [clustername… | nodename…] |
説明
このユーティリティーは、セキュアシェルによりクラスタノードに直接接続を確立します。
オプション
リモート接続のための ssh ユーザー名を指定します。このオプションは、cconsole、crlogin、および cssh コマンドで有効です。
あとで指定されるクラスタとノードが、接続時に同じユーザー名を使用するように、この引数の値は記憶されます。
-l オプションが指定されていない場合、コマンドを起動したユーザー名が有効になります。
使用するセキュアシェルポート番号を指定します。このオプションは、cssh コマンドで有効です。
-p オプションが指定されていない場合、安全な接続のためデフォルトのポート番号 22 が使用されます。
ノードコンソールに接続するために、 telnet の代わりにセキュアシェルを使用することを指定します。このオプションは、cconsole コマンドで有効です。
-s オプションが指定されていない場合、ユーティリティーはコンソールに telnet で接続します。
cconsole グラフィカルユーザーインタフェース (GUI) から -s オプションを上書きするには、「オプション」メニューの「SSH の使用」チェックボックスを選択解除します。
removeサブコマンドの説明は、特定の条件がある場合、コマンドが機能しないことを意味します。コマンドはこれらの条件で実行されますが、その結果、クラスタに悪影響を及ぼす可能性があります。remove サブコマンドの必要条件と動作のより正確な説明は次のとおりです。
クラスタからノードを削除するには、次のガイドラインに従います。これらのガイドラインを守らないと、ノードの削除により、クラスタ内の定足数が損なわれる可能性があります。
-f オプションを指定していない限り、定足数デバイスから削除するノードを構成解除します。
削除するノードが有効なクラスタメンバーでないことを確認します。
3 ノードクラスタに関しては、少なくとも 1 つの共有定足数デバイスが構成されていない限り、ノードを削除しないでください。
clnode remove コマンドは、クラスタ構成データベースからノードへの参照のサブセットを削除しようとします。-f オプションも指定されている場合、このサブコマンドはノードへのすべての参照を削除しようとします。
clnode remove コマンドを使用してクラスタからノードを削除する前に、ノードがクラスタ認証リストにない場合は、まず claccess add コマンドを使用して、ノードをクラスタ認証リストに追加してください。claccess list または claccess show コマンドを使用して、現在のクラスタ認証リストを表示します。そのあとで、セキュリティーのために、claccess deny-all コマンドを使用して、クラスタノードによるクラスタ構成のアクセスを防ぎます。詳細は、claccess(1CL) のマニュアルページを参照してください。
clresource(1CL) のマニュアルページに次のオプションが抜けています。
+ オペランドを指定する場合に、コマンドがリソースグループが一時停止しているリソースで動作するように指定します。+ オペランドを指定するときに u オプションを指定しない場合、コマンドはリソースグループが停止しているすべてのリソースを無視します。
-u オプションが有効なのは、+ オペランドが clear、disable、enable、monitor、set、および unmonitor サブコマンドに指定されている場合です。
+ オペランドの説明は、clear、disable、enable、monitor、set、または unmonitor サブコマンドと使用するときに、-u オプションも指定しない限り、リソースグループが停止しているすべてのリソースを無視する記述になるべきです。
-p、-x、および -y オプションの + および - オペランドの定義に挙げられている例は誤りです。この定義は次のようになるはずです。
1 つまたは複数の値を文字列配列値に追加します。この演算子は、set サブコマンドでのみ使用できます。この演算子は、たとえば Resource_dependencies のような、文字列値のリストを受け付けるプロパティーに対してのみ指定できます。
1 つまたは複数の値を文字列配列値から削除します。この演算子は、set サブコマンドでのみ使用できます。この演算子は、たとえば Resource_dependencies のような、文字列値のリストを受け付けるプロパティーに対してのみ指定できます。
evacuate サブコマンドのコマンド構文と説明に同じコマンド呼び出し内で 1 つを超えるノードまたはゾーンを退避できるという誤った説明があります。そうではなく、evacuate コマンドで指定できるのは、1 つのノードまたはゾーンだけです。
clresourcegroup(1CL) のマニュアルページに次のオプションが抜けています。
+ オペランドを指定する場合に、コマンドが停止したリソースグループで動作するように指定します。+ オペランドを指定するときに u オプションも指定しない場合、コマンドは停止したリソースグループをすべて無視します。
-u オプションが有効なのは、+ オペランドが add-node、manage、offline、online、quiesce、remaster、remove-node、 restart、set、switch、および unmanage サブコマンドに指定されている場合だけです。
+ オペランドの説明は、add-node、manage、offline、online、quiesce、remaster、remove-node、restart、set、switch、または unmanage サブコマンドと一緒に使用すると、このコマンドは、-u オプションも指定しない限り、停止したリソースグループをすべて無視する記述になるはずです。
Network_resources_used プロパティーの使い方が Sun Cluster 3.2 リリースで変わりました。このプロパティーに値を割り当てない場合、値はリソース依存性プロパティーの設定に基づいて、RGM によって自動的に更新されます。このプロパティーを直接設定する必要はありません。代わりに、Resource_dependencies、Resource_dependencies_offline_restart、Resource_dependencies_restart、または Resource_dependencies_weak プロパティーを設定します。
旧リリースの Sun Cluster ソフトウェアとの互換性を維持するために、Network_resources_used プロパティーの値を直接設定することもできます。この値を設定すると、Network_resources_used プロパティーはリソース依存性プロパティーから取得されなくなります。
Network_resources_used プロパティーにリソース名を追加すると、このリソース名は Resource_dependencies プロパティーにも自動的に追加されます。この依存性を削除する唯一の方法は、Network_resources_used プロパティーから削除することです。ネットワークリソースの依存性がもともと Resource_dependencies プロパティーに追加されていたか、Network_resources_used プロパティーに追加されていたかがよくわからない場合は、両方のプロパティーから依存性を削除します。たとえば、次のコマンドは依存性が Network_resources_used プロパティーに追加されていたか、Resource_dependencies プロパティーに追加されていたかに関わらず、ネットワークリソース r2 のリソース r1 の依存性を削除します。
# clresource set -p Network_resources_used-=r2 -p Resource_dependencies-=r2 r1 |
r_properties(5) のマニュアルページに Resource_dependencies、Resource_dependencies_offline_restart、Resource_dependencies_restart、および Resource_dependencies_weak プロパティーの誤った説明があります。これらのプロパティーの正しい説明については、代わりに『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の「リソースのプロパティー」を参照してください。
Scalable リソースプロパティーの説明に非大域ゾーンでのスケーラブルサービスのサポートに関する記述がありません。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
Failover リソースタイプのプロパティーに Sun Cluster 3.2 リリースの非大域ゾーンでのスケーラブルサービスのサポートに関する誤った記述が含まれます。これは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。
(誤)このタイプのスケーラブルサービスはゾーン内では使用できません。
(正)このタイプのスケーラブルサービスは、非大域ゾーンで動作するリソースグループで構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
次の情報は、serialport(4) のマニュアルページの「説明」の節への追加です。
ノードコンソールへのセキュアシェル接続をサポートするには、/etc/serialports ファイル内に、各ノードのコンソールアクセスデバイス名およびセキュアシェルポート番号を指定します。コンソールアクセスデバイスでデフォルトのセキュアシェル構成を使用する場合は、ポート番号 22 を指定します。
SUNW.Event(5) のマニュアルページに、Solaris 10 OS では、CRNP (Cluster Reconfiguration Notification Protocol) は大域ゾーンでのみ動作するという記述が抜けています。