Sun Cluster 3.2 ご使用にあたって (Solaris OS 版)

Sun Cluster 3.2 ご使用にあたって (Solaris OS 版)

このマニュアルでは、SunTM Cluster 3.2 ソフトウェアに関する次の情報について説明しています。

Sun Cluster 3.2 ソフトウェアの新機能

この節では、Sun Cluster 3.2 ソフトウェアで新しく追加された機能と、サポートされている製品について説明します。この節では、このリリースに適用される制限事項についても説明します。

新しい機能と特長

この節では、Sun Cluster 3.2 ソフトウェアで提供された次の新機能について説明します。

新しく用意された Sun Cluster オブジェクト指向コマンドセット

新しい Sun Cluster コマンド行インタフェースには、 クラスタオブジェクトタイプごとに別々のコマンドがあり、一貫したサブコマンド名とオプション文字を使用します。新しい Sun Cluster コマンドセットは、短いコマンド名と長いコマンド名にも対応しています。コマンド出力により、改良されたヘルプとエラーメッセージ、およびさらに読みやすいステータスレポートと構成レポートを提供します。さらに、一部のコマンドには、ポータブル XML ベースの構成ファイルを使用したエクスポートおよびインポートオプションが含まれています。これらのオプションを使用してクラスタ構成の一部または全部を複製できるため、一部または全部の構成の複製を高速化できます。詳細は、Intro(1CL) のマニュアルページを参照してください。

Oracle RAC 10g の統合と管理の向上

Sun Cluster Oracle RAC パッケージのインストールおよび構成が Sun Cluster の手順に統合されました。新しい Oracle RAC 固有のリソースタイプとプロパティーを使用すれば、さらに細かい制御が可能になります。

ScalDeviceGroup および ScalMountPoint リソースタイプによって提供される Oracle RAC の拡張された管理機能によって、Sun Cluster 構成内での Oracle RAC の設定がより簡単になり、また、診断機能と可用性が向上しています。詳細は、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』を参照してください。

データサービス構成ウィザード

Sun Cluster は、パラメータ選択の自動検出と迅速な検証により、一般的なアプリケーションの構成を簡単にする新しいデータサービス構成ウィザードを提供しています。Sun Cluster データサービス構成ウィザードは、次の 2 つの形式で提供されています。

Sun Cluster Manager GUI 形式では次のデータサービスがサポートされています。

clsetup コマンド行インタフェース形式は、Sun Cluster Manager でサポートされるすべてのアプリケーションに対応しています。

サポートされる各データサービスについての詳細は、Sun Cluster のマニュアルを参照してください。

柔軟な IP アドレススキーマ

Sun Cluster ソフトウェアでは、プライベートインターコネクト用の IP アドレスの範囲を縮小することができるようになりました。さらに、インストール中またはインストール後に IP ベースのアドレスとその範囲をカスタマイズできるようになりました。

このような IP アドレススキーマの変更により、アドレス空間が制限されたり、規制されている既存のネットワークへの Sun Cluster 環境の統合が容易になります。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「既存のクラスタのプライベートネットワークアドレスまたはアドレス範囲を変更する」を参照してください。

Sun Cluster による Service Management Facility サービスのサポート

Sun Cluster ソフトウェアは、Solaris 10 OS Service Management Facility (SMF) と緊密に統合され、Sun Cluster リソース管理モデルで SMF 制御アプリケーションをカプセル化できるようになりました。ローカルサービスレベルのライフサイクル管理は引き続き SMF によって行われますが、全リソースレベルのクラスタ全体の障害処理操作 (ノード、ストレージ) は、Sun Cluster ソフトウェアによって実行されます。

アプリケーションをシングルノードの Solaris 10 OS 環境からマルチノードの Sun Cluster 環境に移行することにより、最小限の労力で可用性を向上させることができます。詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』「Sun Cluster 上で Solaris SMF サービスを有効にする」を参照してください。

フェンシングプロトコルの柔軟性の拡張

この新しい機能により、デフォルトのフェンシングプロトコルをカスタマイズできます。SCSI-3、SCSI-2、デバイス別検出などを選択できます。

この柔軟性により、最新のプロトコルである SCSI-3 をデフォルトで使用して、マルチパスのサポートの向上、Sun 以外のストレージとの統合の簡略化、および新しいストレージでの回復時間の短縮を実現できる一方で、古いデバイス用に Sun Cluster 3.0 または 3.1 の動作や SCSI-2 も従来どおりサポートします。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ストレージデバイス用の SCSI プロトコル設定の管理」を参照してください。

Sun Cluster 定足数サーバー

新しい定足数デバイスを Sun Cluster ソフトウェアで利用できるようになりました。共有ディスクと SCSI 予約プロトコルを使用する代わりに、クラスタ外の Solaris サーバーを使用して、TCP/IP 経由で不可分な予約プロトコルをサポートする定足数サーバーモジュールを実行できるようになりました。このサポートにより、フェイルオーバー時間を高速化し、導入コストを削減することができます。定足数が必須 (2 ノード) または望ましいあらゆるケースで、共有定足数ディスクが不要になります。詳細は、『Sun Cluster 定足数サーバーユーザーズガイド』を参照してください。

ディスクパス障害処理

Sun Cluster ソフトウェアは、共有ディスクへのすべてのパスで障害が起きると自動的にノードを再起動するように構成できるようになりました。重大なディスクパス障害が起きた場合の対応が迅速になることにより、可用性を向上させることができます。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ディスクパス監視の管理」を参照してください。

HAStoragePlus の可用性の向上

マウントエラーが起きた場合に、自動的に HAStoragePlus マウントポイントが作成されるようになりました。この機能により、フェイルオーバーにつながる障害がなくなるため、環境の可用性が向上します。

Solaris ゾーンの拡張サポート

Sun Cluster ソフトウェアは、次のデータサービスで Solaris の非大域ゾーンをサポートするようになりました。

このサポートにより、Solaris ゾーンにより提供されるアプリケーションに含まれる利点と、Sun Cluster ソフトウェアによって提供される可用性の向上を組み合わせることができるようになりました。該当するデータサービスの詳細は、Sun Cluster のマニュアルを参照してください。

ZFS

Sun Cluster 3.2 リリースでは、ZFS は高い可用性を備えたローカルファイルシステムとしてサポートされています。ZFS と Sun Cluster ソフトウェアの組み合わせは、高可用性、データの完全性、パフォーマンス、スケーラビリティーを兼ね備えた最高クラスのファイルシステム解決方法を提供し、もっとも要求の厳しい環境のニーズに応えます。

すべてのワークロード、特にデータベーストランザクションのパフォーマンスを最適化するために、継続的な拡張が ZFS に追加されています。ZFS の最新のパッチがインストールされていること、および使用中の構成が特定の種類のワークロードに最適化されていることを確認してください。

HDS TrueCopy キャンパスクラスタ

Sun Cluster ベースのキャンパスクラスタが HDS TrueCopy コントローラベースの複製をサポートし、TrueCopy 構成の自動管理ができるようになりました。Sun Cluster ソフトウェアは、フェイルオーバー時に二次キャンパスサイトへの切り替えを自動的および透過的に処理し、この手順のエラーを減らして、ソリューションの全体的な可用性を向上させます。この新しいリモートデータ複製インフラストラクチャーにより、Sun Cluster ソフトウェアは、TrueCopy などの特定の複製インフラストラクチャーで標準化を行ってきたユーザーや、距離の問題やアプリケーションに互換性がないことが原因で、ホストベースの複製が有効なソリューションとならない場合に対して、新たな構成をサポートすることができます。

この新しい組み合わせにより、可用性が向上し、複雑さが軽減される一方で、コストが削減されます。Sun Cluster ソフトウェアは、既存の TrueCopy ユーザーの複製インフラストラクチャーを利用することにより、追加の複製ソリューションの必要性を少なくします。

仕様ベースのキャンパスクラスタ

仕様ベースのキャンパスクラスタが、より広範な距離の構成をサポートするようになりました。これらのクラスタでは、距離およびコンポーネントの厳守を求めるのではなく、待ち時間や誤り率に準拠することを求めることによって、広範な距離の構成をサポートします。

詳細は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』の第 7 章「Campus Clustering With Sun Cluster Software」を参照してください。

マルチテラバイトディスクおよび EFI (Extensible Firmware Interface) ラベルのサポート

Sun Cluster 構成では、新しい EFI (Extensible Firmware Interface) ディスクフォーマットを使用する 1 TB を超える容量のディスクがサポートされるようになりました。このフォーマットは、マルチテラバイトディスクには必須ですが、それよりも容量の小さいディスクにも使用できます。この新機能によってサポートされる Sun Cluster 構成は、ハイエンドのストレージ要件を備えた環境にまで拡張されます。

VERITAS ソフトウェアコンポーネントの拡張サポート

SPARC プラットフォームでは、VERITAS Storage Foundation 5.0 の一部である VERITAS Volume Manager およびファイルシステムがサポートされ、Solaris 10 OS x86/x64 プラットフォームでは、VERITAS Volume Manager 4.1 がサポートされるようになりました。

VERITAS Volume Replicator (VVR) 5.0 および VERITAS FlashSnap の一部である VERITAS Fast Mirror Resynchronization (FMR) 4.1 および 5.0 を、SPARC プラットフォーム上の Sun Cluster 環境で使用できるようになりました。

Quota のサポート

ローカルの UFS ファイルシステム上で HAStoragePlus とともに Quota 管理を使用して、リソースの消費をよりよく制御できるようになりました。

Oracle DataGuard のサポート

Sun Cluster ソフトウェアでは、DataGuard データ複製ソフトウェアなどの Oracle ソフトウェア導入の操作性が向上しました。ユーザーは、一次サイトまたは予備サイトとして、Oracle DataGuard 構成の一部となる HA-Oracle データベースを指定できるようになりました。この二次データベースは、論理的な予備と物理的な予備のいずれにもできます。詳細は、『Sun Cluster Data Service for Oracle Guide for Solaris OS 』を参照してください。


注 –

HA-Oracle エージェントが予備データベースを管理している場合、エージェントはそのデータベースの起動、停止、および監視のみを制御します。別のノードにフェイルオーバーした場合、このエージェントは予備データベースの復旧を再開しません。


デュアルパーティションアップグレード

この新しいソフトウェアスワップ機能により、アップグレードプロセスが大幅に簡略化されました。Solaris オペレーティングシステム、Sun Cluster ソフトウェア、ファイルシステム、ボリュームマネージャー、アプリケーション、データサービスなど、ソフトウェアスタックのあらゆるコンポーネントを Sun Cluster ソフトウェアとともにワンステップでアップグレードできます。この自動化により、クラスタのアップグレード中に人為的なミスのリスクが低減し、標準的なクラスタのアップグレードで発生するサービスの中断が最小になります。

Live Upgrade

Live Upgrade メソッドを Sun Cluster ソフトウェアで使用できるようになりました。このメソッドにより、アップグレード中のノードのシステム停止時間や不必要な再起動が減ることにより、必要な保守時間が少なくなり、その間にサービスがリスクにさらされることも少なくなります。

現時点で Live Upgrade を使用できるのは、Sun Cluster のインストールでストレージまたはディスクグループの管理に Solaris ボリュームマネージャーを使用する場合だけです。Live Upgrade は現在、VxVM をサポートしていません。詳細は、「アップグレード」を参照してください。

Solaris 8 から Solaris 9 への Live Upgrade を実行する場合、代替ルートから再起動する前に SVM パッチ 116669-18 を適用する必要があります。

Sun Cluster Manager のオプショナルインストール

Sun Cluster の管理 GUI である Sun Cluster Manager のインストールがオプションになりました。この変更により、Web ベースのアクセスがなくなり、潜在的なセキュリティールールに準拠しやすくなります。インストール時の Sun Cluster Manager の選択解除についての詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」を参照してください。

SNMP Event MIB

Sun Cluster ソフトウェアに新しい Sun Cluster SNMP イベント メカニズムおよび新しい SNMP MIB が含まれています。これらの新機能を使用して、サードパーティの SNMP 管理アプリケーションを Sun Cluster ソフトウェアで直接登録して、タイムリーにクラスタイベントを受け取ることができます。きめ細かなイベント通知と標準の SNMP サポートによる第三者のエンタープライズ管理フレームワークとの直接の統合により、予防保守監視が可能になり、可用性が向上します。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「Sun Cluster SNMP イベント MIB の作成、設定、および管理」を参照してください。

コマンドロギング

Sun Cluster ソフトウェア内でコマンド情報をログに記録できるようになりました。この機能は、クラスタ障害の診断を容易にし、アーカイブまたは複製のための管理操作の履歴を提供します。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「Sun Cluster のコマンドログの内容を表示する」を参照してください。

ワークロードシステムリソース監視

Sun Cluster ソフトウェアは、ノード、リソース、およびリソースグループ別のリソース消費のきめ細かな測定を含む、新しいシステムリソース利用率測定および表示ツールを提供します。これらの新しいツールにより、履歴データが提供され、しきい値管理および CPU の予約と制御が可能になります。このような制御機能の向上によって、サービスレベルおよび容量の管理が改善されます。

scinstall によるマルチアダプタ IPMP グループの自動作成

対話型の scinstall ユーティリティーは、各サブネットで利用可能なアダプタに応じて、パブリックネットワークアダプタのセットごとにシングルアダプタ IPMP グループでも、マルチアダプタの IPMP グループでも構成するようになりました。この機能は、サブネットに関係なく各アダプタに対してシングルアダプタの IPMP グループを生成していた、ユーティリティーの以前の動作に代わるものです。IPMP グループポリシーに対するこの変更およびその他の変更については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』「パブリックネットワーク」を参照してください。

Cluster Control Panel ソフトウェアでのセキュアシェルのサポート

次の新機能により、セキュアシェルのサポートが Cluster Control Panel (CCP) に追加されました。

CCP のセキュアシェル機能の準備と使用については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」を参照してください。関連するマニュアルページの更新については、「ccp(1M)」「cconsole(1M)、crlogin(1M)、cssh(1M)、および ctelnet(1M)」、および 「serialports(4)」を参照してください。

単一クラスタインターコネクトの新しい最小要件

クラスタが持つ必要のあるクラスタインターコネクトの必要最小数は、クラスタノード間あたり 1 クラスタインターコネクトに変更されました。対話型の scinstall ユーティリティーは、「カスタム」モードでユーティリティーを使用する場合にインターコネクト 1 つだけの構成を許可するように更新されました。ユーティリティーの「通常」モードを使用するには、依然として 2 つのインターコネクトを構成する必要があります。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』「クラスタインターコネクト」を参照してください。

フェイルオーバーサービスでの IP フィルタのサポート

Sun Cluster 3.2 ソフトウェアは、フェイルオーバーサービスで Solaris IP フィルタをサポートします。Solaris IP フィルタは、ステートフルなパケットフィルタリングとネットワークアドレス変換 (NAT) を提供します。Solaris IP フィルタには、アドレスプールを作成および管理する機能も含まれています。Solaris IP フィルタの詳細は、『Solaris のシステム管理 (IP サービス)』『Solaris のシステム管理 (IP サービス)』のパート IV「IP セキュリティー」を参照してください。Sun Cluster ソフトウェアでの IP フィルタリングの設定については、「Sun Cluster での Solaris IP フィルタリングの使用 」を参照してください。

制限

NetApp NAS フェンシング制限

フェンシング機能を使用するには、各クラスタノードが、NetApp NAS 装置へのアクセス時に、常に同じソース IP アドレスを使用する必要があります。マルチホームシステムは、複数のソース IP アドレスを使用します。マルチホームシステムの管理者は、NetApp NAS 装置へのアクセス時に、常に 1 つのソース IP アドレスが使用されていることを確認する必要があります。これは、適切なネットワーク構成を設定することによって実現できます。

互換性について

この節では、サポートが近々終了する機能など、Sun Cluster の互換性に関連した事項について説明します。

サポートが終了する機能について

次の機能は、Sun Cluster 3.2 ソフトウェアでサポートが終了します。

Sun Cluster 3.0

Sun Cluster 3.2 のリリース時に、Sun Cluster 3.0 はサポートが終了します。Sun Cluster 3.0 のパーツ番号は使用できなくなります。

Solaris 8

Sun Cluster 3.2 では、Sun Cluster は Solaris 8 をサポートしません。

ローリングアップグレード

Sun Cluster を次マイナーリリースにアップグレードすると、ローリングアップグレード機能を使用できなくなる可能性があります。その場合、これらのソフトウェアのアップグレード中にクラスタの停止を避けるほかの手順が用意される予定です。

sccheck

sccheck コマンドは、将来のリリースには含まれない可能性があります。ただし、それに相当する機能が cluster check コマンドによって提供されます。

Solaris 10 11/06 オペレーティングシステム

次の既知の問題が Solaris 10 11/06 オペレーティングシステムで Sun Cluster 3.2 リリースの処理に影響を与える可能性があります。これらの問題を修正するために必要な Solaris パッチについては、ご購入先にお問い合わせください。詳細は、『Infodoc 87995』を参照してください。


注意 – 注意 –

Solaris パッチを適用するに、オペレーティングシステムを Solaris 10 11/06 にアップグレードする必要があります。


6252216

metaset command fails after the rpcbind server is restarted.

6331216

disksets: devid information not written to a newly created diskset.

6345158

svm exited with error 1 in step cmmstep5, nodes panic.

6367777

fsck: svc:/system/filesystem/usr fails to start from milestone none.

6401357

Solaris Volume Manager (SVM) does not show metaset after cluster upgrade in x86.

6402556

commd timeout should be a percentage of metaclust timeout value.

6474029

metaset -s diskset -t should take ownership of a cluster node after reboot.

6496941

SVM still removes the diskset if the Sun Cluster nodeid file is missing.

6367777

fsck* svc:/systsem/filesystem/usr fails to start from milestone.

6367948

New fsck_ufs(1M) has nits when dealing with already mounted file.

6425930

Node panics with CMM:cluster lost operational quorum in amd64.

6361537

create_ramdisk: cannot seek to offset -1.

6393691

Add etc/cluster/nodeid entry to filelist.ramdisk.

6344611

create_ramdisk needs to react less poorly to missing files or directories.

6462748

devfsadm link removal does not provide full interpose support.

fssnap のサポート

Sun Cluster は、UFS の機能である fssnap をサポートしません。fssnap は、Sun Cluster によって管理されないので、ローカルシステムで使用できます。fssnap のサポートには、次の制約があります。

Solaris ボリュームマネージャー GUI

Solaris 管理コンソール (Solaris ボリュームマネージャー) の「拡張ストレージ」モジュールは、Sun Cluster ソフトウェアと互換性がありません。Solaris ボリュームマネージャー ソフトウェアの構成には、コマンド行インタフェースまたは Sun Cluster ユーティリティーを使用してください。

ループバックファイルシステム (LOFS)

Sun Cluster 3.2 ソフトウェアは、一定の状況下における LOFS の使用をサポートしません。クラスタノード上で LOFS を有効にする必要がある場合 (非大域ゾーンを構成する場合など) は、まずその構成に LOFS の制限が適用されるかどうかを確認してください。LOFS の使用についての制限と、制限が適用される場合に LOFS を使用するための方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』「Solaris OS の機能制限」を参照してください。

障害を持つユーザー向けのアクセシビリティー機能

このメディアの公開後にリリースされているアクセシビリティー機能 (障害に配慮した機能) を入手する場合は、Sun が提供する Section 508 製品アセスメントに目を通し、アクセシビリティーソリューションを配備する上でどのバージョンが最適かを検討してください。

このリリースで変更されたコマンド

この節では、Sun Cluster コマンドインタフェースに加えられた変更のうち、ユーザースクリプトの停止を引き起こす可能性があるものについて説明します。

オブジェクト指向コマンド行インタフェース

Sun Cluster 3.2 リリースから、Sun Cluster ソフトウェアにはオブジェクト指向コマンドセットが含まれます。Sun Cluster ソフトウェアでは引き続き元のコマンドセットをサポートしていますが、Sun Cluster の手順マニュアルではオブジェクト指向コマンドセットだけを使用します。オブジェクト指向コマンドセットについての詳細は、Intro(1CL) のマニュアルページを参照してください。一般的な Sun Cluster 手順のためのオブジェクト指向コマンドのリストについては、『Sun Cluster クイックリファレンス』を参照してください。

scinstall コマンド

scinstall コマンドの次のオプションは、Sun Cluster 3.2 リリースで変更されています。

scconf コマンド

scconf-q オプションは、共有ローカル定足数デバイス (SCSI) とほかのタイプの定足数デバイス (NetAppNAS など) を区別するように変更されました。クラスタに共有定足数デバイスを追加する場合、またはクラスタから共有定足数デバイスを削除する場合は、接続されている共有ストレージデバイスの名前を name サブオプションを使用して指定してください。このサブオプションは、定足数デバイスの状態を変更する際に変更形式のコマンドで使用することもできます。このリリースでも SCSI 共有ストレージデバイスに globaldev サブオプションを使用できますが、ほかのすべてのタイプの共有ストレージデバイスには name サブオプションを使用する必要があります。scconf に対するこの変更と、定足数デバイスに関連した処理の詳細は、scconf(1M)scconf_quorum_dev_netapp_nas(1M)scconf_quorum_dev_netapp_nas(1M)、および scconf_quorum_dev_scsi(1M) を参照してください。

リソースプロパティー

Network_resources_used リソースプロパティーを直接変更する必要がなくなりました。その代わりに、Resource_dependencies プロパティーを使用します。RGM は、Resource_dependencies プロパティーの設定に基づいて、Network_resources_used プロパティーを自動的に更新します。これら 2 つのリソースプロパティーの最新の使い方については、「r_properties(5)」 のマニュアルページを参照してください。

製品名の変更

この節では、Sun Cluster ソフトウェアでサポートされるアプリケーションの製品名変更についての情報を示します。使用している Sun Cluster ソフトウェアのリリースによっては、付属の Sun Cluster マニュアルにこれらの製品名変更が反映されていない場合があります。


注 –

Sun Cluster 3.2 ソフトウェアは、Solaris Cluster 3.2 および Sun Java Availability Suite に付属して配布されます。


現在の製品名 

以前の製品名 

Sun Cluster Manager 

SunPlex Manager 

Sun Cluster Agent Builder 

SunPlex Agent Builder 

Sun Java System Application Server 

Sun ONE Application Server 

Sun Java System Application Server EE (HADB) 

Sun Java System HADB 

Sun Java System Message Queue 

Sun ONE Message Queue 

Sun Java System Web Server 

  • Sun ONE Web Server

  • iPlanet Web サーバー

  • NetscapeTM HTTP

サポートされる製品

この節では、Sun Cluster 3.2 ソフトウェアでサポートされるソフトウェアとメモリーの必要条件について説明します。

プラットフォーム 

オペレーティングシステム 

ボリュームマネージャー 

クラスタ機能 

SPARC 

Solaris 9 

Solaris ボリュームマネージャー。 

Solaris Volume Manager for Sun Cluster。 

VERITAS Volume Manager 4.1。このサポートには、VxVM 4.1 MP2 が必要です。 

VERITAS Volume Manager 4.1 クラスタ機能。 

VERITAS Storage Foundation 4.1 の一部として提供される VERITAS Volume Manager コンポーネント。このサポートには、VxVM 4.1 MP2 が必要です。 

VERITAS Volume Manager 4.1 クラスタ機能。 

VERITAS Storage Foundation 5.0 の一部として提供される VERITAS Volume Manager コンポーネント。このサポートには、VxVM 5.0 MP1 が必要です。 

VERITAS Volume Manager 5.0 クラスタ機能。 

Solaris 10 

Solaris ボリュームマネージャー。 

Solaris Volume Manager for Sun Cluster。 

VERITAS Volume Manager 4.1。このサポートには、VxVM 4.1 MP2 が必要です。 

VERITAS Volume Manager 4.1 クラスタ機能付き。 

VERITAS Volume Manager 4.1。このサポートには、VxVM 4.1 MP2 が必要です。 

VERITAS Volume Manager 4.1 クラスタ機能付き。 

VERITAS Storage Foundation 5.0 の一部として提供される VERITAS Volume Manager コンポーネント。このサポートには、VxVM 5.0 MP1 が必要です。 

VERITAS Volume Manager 5.0 クラスタ機能。 

x86 

Solaris 10 

Solaris ボリュームマネージャー。 

Solaris Volume Manager for Sun Cluster。 

VERITAS Storage Foundation 4.1 の一部として提供される VERITAS Volume Manager コンポーネント。 

該当なし - Sun Cluster 3.2 は x86 プラットフォーム上で VxVM クラスタ機能をサポートしていません。 

プラットフォーム 

オペレーティングシステム 

ファイルシステム 

機能および外部ボリューム管理 

SPARC 

Solaris 9 

Solaris UFS。 

なし 

Sun StorEdge QFS 

なし 

QFS 4.5 スタンドアロンファイルシステム。 

機能 

  • HA-NFS

  • HA-Oracle

外部ボリューム管理 

  • SVM

  • VxVM

QFS 4.5 — 共有 QFS ファイルシステム。 

機能 

  • Oracle RAC

外部ボリューム管理 

  • SVM Cluster File Manager

QFS 4.6。 

機能 

  • クラスタ外の COTC 共有 QFS クライアント

  • HA-SAM フェイルオーバー

VERITAS File System 4.1。 

なし 

VERITAS Storage Foundation 4.1 および 5.0 の一部として提供される VERITAS File System コンポーネント。 

なし 

SPARC 

Solaris 10 

Solaris ZFS。 

なし 

Solaris ZFS。 

なし 

Sun StorEdge QFS 

なし 

QFS 4.5 スタンドアロンファイルシステム。 

機能 

  • HA-NFS

  • HA-Oracle

外部ボリューム管理 

  • SVM

  • VxVM

QFS 4.5 — 共有 QFS ファイルシステム。 

機能 

  • Oracle RAC

外部ボリューム管理 

  • SVM Cluster File Manager

QFS 4.6。 

機能 

  • クラスタ外の COTC 共有 QFS クライアント

  • HA-SAM フェイルオーバー

VERITAS File System 4.1。 

なし 

VERITAS Storage Foundation 4.1 および 5.0 の一部として提供される VERITAS File System コンポーネント。 

なし 

x86 

Solaris 10 

Solaris UFS。 

なし 

Solaris ZFS。 

なし 

Sun StorEdge QFS 

なし 

QFS 4.5 スタンドアロンファイルシステム 

機能 

  • HA-NFS

  • HA-Oracle

外部ボリューム管理 

  • SVM

  • VxVM

QFS 4.5 — 共有 QFS ファイルシステム。 

機能 

  • Oracle RAC

外部ボリューム管理 

  • SVM Cluster File Manager

QFS 4.6。 

機能 

  • クラスタ外の COTC 共有 QFS クライアント

  • HA-SAM フェイルオーバー

Sun Cluster のセキュリティー強化

Sun Cluster のセキュリティー強化では、Sun BluePrintsTM プログラムが推奨している Solaris オペレーティングシステムの強化技術を使用し、クラスタの基本的なセキュリティー強化を達成しています。Solaris Security Toolkit は Sun Cluster のセキュリティー強化を自動的に実装します。

Sun Cluster のセキュリティー強化のマニュアルは、http://www.sun.com/blueprints/0203/817-1079.pdf で入手できます。また、http://www.sun.com/software/security/blueprints からこの文書にアクセスすることもできます。この URL から「Architecture」というタイトルまでスクロールして、「Securing the Sun Cluster 3.x Software」という文書を探します。この文書は、Solaris 環境における Sun Cluster 3.x 配備を安全にする方法を説明します。この文書には、Solaris Security Toolkit など、Sun のセキュリティー専門家たちが推薦している最良のセキュリティーテクニックの使い方も記載されています。次のデータ サービスは、Sun Cluster セキュリティー強化によってサポートされています。

既知の問題点とバグ

次に示す既知の問題とバグは、Sun Cluster 3.2 リリースの処理に影響を与えます。バグおよび問題は次のカテゴリに分類しています。

管理

clnode remove -f オプションが、Solaris ボリュームマネージャーデバイスグループを有するノードを削除できない (6471834)

問題の概要: -clnode remove --force コマンドはメタセットからノードを削除するべきですが、できません。『Sun Cluster のシステム管理 (Solaris OS 版)』 には、クラスタからノードを削除するための手順が記載されています。これらの手順は、clnode remove を実行する前に、 metaset コマンドを実行して Solaris ボリュームマネージャーディスクセットを削除する方法を説明しています。

対処方法: 手順に従わなかった場合は、通常の方法で CCR から無効なノードデータをクリアしなければならない場合があります。アクティブなクラスタノードから、 metaset コマンドを使用して Solaris ボリュームマネージャーディスクセットからノードをクリアします。続いて clnode clear --force obsolete_nodename を実行します。

Solaris 10 SUNWCluser メタクラスタでは scsnapshot が機能しない (6477905)

問題の概要: Solaris 10 End User ソフトウェアグループの SUNWCuser を使用してインストールされたクラスタで、scsnapshot コマンドを実行すると、次のエラーが表示されて失敗する場合があります。


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

対処方法: 次のいずれかを行います。

スケーラブルリソースの作成時に Auxnodelist プロパティーのエントリが SEGV を引き起こす (6494243)

問題の概要: 共有アドレスリソースの Auxnodelist プロパティーは、共有アドレスリソースの作成時には使用できません。これは、この共有アドレスネットワークリソースに依存するスケーラブルリソースの作成時に、検証エラーと SEGV を引き起こします。スケーラブルリソースの検証エラーメッセージは次の形式です。


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

また、ssm_wrapper からコアファイルが生成されます。ユーザーは Auxnodelist プロパティーを設定できないため、共有アドレスをホストできてもプライマリとしては機能しないクラスタノードを識別できません。

対処方法: あるノード上で、Auxnodelist プロパティーを指定せずに共有アドレスリソースを再度作成します。続いてスケーラブルリソースの作成コマンドを再度実行し、ネットワークリソースとしてユーザーが再度作成した共有アドレスリソースを使用します。

clquorumserver 起動および停止コマンドが次の再起動に対する再起動状態プロパティーを設定できない。(6496008)

問題の概要: 定足数サーバーコマンド clquorumserver は、次の再起動用の起動メカニズムの状態を正しく設定しません。

対処方法: 次の作業を実行して定足数サーバーソフトウェアを起動または停止します。

ProcedureSolaris 10 OS で定足数サーバーソフトウェアを起動する

  1. quorumserver サービスの状態を表示します。


    # svcs -a | grep quorumserver
    

    サービスが無効である場合、出力は次のような形式になります。


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. 定足数サーバーソフトウェアを起動します。

    • quorumserver サービスが disabled の場合、svcadm enable コマンドを使用します。


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • quorumserver サービスが online の場合、clquorumserver コマンドを使用します。


      # clquorumserver start +
      

ProcedureSolaris 10 OS で定足数サーバーソフトウェアを停止する

    quorumserver サービスを無効にします。


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureSolaris 9 OS で定足数サーバーソフトウェアを起動する

  1. 定足数サーバーソフトウェアを起動します。


    # clquorumserver start +
    
  2. /etc/rc2.d/.S99quorumserver ファイルを /etc/rc2.d/S99quorumserver に名前変更します。


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureSolaris 9 OS で定足数サーバーソフトウェアを停止する

  1. 定足数サーバーソフトウェアを停止します。


    # clquorumserver stop +
    
  2. 定足数サーバーソフトウェアを起動します。


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

データサービス

Domain Administration Server (DAS) リソースに対してリソースを依存関係が設定されていない場合でも、Sun Cluster HA for Sun Java System Application Server のノードエージェントリソースの作成が成功する (6262459)

問題の概要: Sun Cluster HA for Application Server でノードエージェント (NA) リソースを作成する場合、DAS リソースに対する依存関係が設定されていなくてもリソースは作成されます。NA リソースを起動するには、DAS リソースがオンラインになっている必要があるため、依存関係が設定されていない場合、コマンドはエラーになる必要があります。

対処方法: NA リソースの作成時には、DAS リソースに対するリソースの依存関係を必ず設定してください。

HA MySQL パッチの新しい変数は、すべての新しいインスタンス用に構成する必要がある (6516322)

問題の概要: HA MySQL パッチは、mysql_config ファイル内に MYSQL_DATADIR という新しい変数を追加します。この新しい変数は、MySQL 構成ファイルの my.conf ファイルが保存されているディレクトリを指す必要があります。変数が正しく構成されていない場合、mysql_register でのデータベースの準備に失敗します。

対処方法: MYSQL_DATADIR 変数が、MySQL 構成ファイルの my.conf が保存されているディレクトリを指すようにします。

インストール

InfiniBand 構成内の自動検出が、同じアダプタを使用する 2 つのパスを提示することがある (6299097)

問題の概要: InfiniBand がクラスタトランスポートとして使用され、アダプタごとに 2 つのポートを持つ各ノード上に 2 つのアダプタがあり、さらに合計 2 つのスイッチがある場合、scinstall ユーティリティーのアダプタ自動検出は、同じアダプタを使用する 2 つのトランスポートパスを提示する可能性があります。

対処方法: 各ノード上でトランスポートアダプタを手動で指定します。

IPv6 スケーラブルサービスサポートがデフォルトで有効になっていない (6332656)

問題の概要: IPv6 スケーラブルサービスパケットの転送に必要な、インターコネクト上の IPv6 の plumb はデフォルトでは有効になっていません。ifconfig コマンドを使用する際に確認される IPv6 インタフェースは、デフォルトではインターコネクトアダプタ上で plumb されません。

対処方法: 手動で IPv6 スケーラブルサービスサポートを有効にします。

Procedure手動で IPv6 スケーラブルサービスサポートを有効にする

始める前に

IPv6 サービスを実行するためにすべてのクラスタノードを準備したことを確認します。この作業には、ネットワークインタフェース、サーバー/クライアントアプリケーションソフトウェア、ネームサービス、およびルーティングインフラストラクチャーの適切な構成が含まれます。適切に構成しないと、ネットワークアプリケーションの予期せぬ障害が発生する場合があります。詳細は、IPv6 サービスに関する Solaris システム管理のマニュアルを参照してください。

  1. 各ノード上で次のエントリを /etc/system ファイルに追加します。


    set cl_comm:ifk_disable_v6=0
    
  2. 各ノード上で、インターコネクトアダプタに対する IPv6 の plumb を有効にします。


    # /usr/cluster/lib/sc/config_ipv6
    

    config_ipv6 ユーティリティーは、リンクローカルアドレスを持つすべてのクラスタインターコネクトアダプタ上で IPv6 インタフェースを起動します。このユーティリティーは、インターコネクト上での IPv6 スケーラブルサービスパケットの適切な転送を有効にします。

    また、各クラスタノードを再起動して構成の変更を有効にすることもできます。

XML ファイルに直接接続トランスポート情報が含まれている場合 clnode add は XML ファイルからノードを追加できない (6485249)

問題の概要: 直接接続トランスポートを使用している XML ファイルを使用して clnode add コマンドが試行された場合、コマンドはケーブル情報を誤って解釈し、間違った構成情報を追加します。その結果、接続しているノードはクラスタに接続できません。

対処方法: クラスタトランスポートが直接接続されている場合は、scinstall コマンドを使用してノードをクラスタに追加します。

非大域ゾーンのインストール時に host および netmasks データベース情報を使用した /etc/nsswitch.conf ファイルの更新が行われない (6345227)

問題の概要: scinstall コマンドは /etc/nsswitch.conf ファイルを更新して、hosts および netmasks データベースの cluster エントリを追加します。この変更は、大域ゾーンの /net/nsswitch.conf ファイルを更新します。ただし、非大域ゾーンの作成およびインストール時には、非大域ゾーンは元の /etc/nsswitch.conf ファイルのコピーを受け取ります。非大域ゾーン上の /etc/nsswitch.conf ファイルには、hosts および netmasks データベースの cluster エントリはありません。getXbyY クエリーを使用して非大域ゾーン内部からクラスタ固有のプライベートホスト名および IP アドレスを解決する試みは、すべて失敗します。

対処方法: 非大域ゾーンの /etc/nsswitch.conf ファイルで、hosts および netmasks データベースの cluster エントリを手動で更新します。これによって、クラスタ固有のプライベートホスト名と IP アドレスの解決は、非大域ゾーン内でも使用できるようになります。

ローカライズ

定足数サーバー用に翻訳されたメッセージが、コアローカライズパッケージの一部として提供されている (6482813)

問題の概要: 定足数サーバー管理プログラム (clquorumserver など) 用に翻訳されたメッセージは、コアのローカライズパッケージの一部として提供されています。その結果、定足数サーバーのメッセー ジが英語で表示されます。定足数サーバーのローカライズパッケージは、本来コアローカライズパッケージとは別に提供され、定足数サーバーシステムにインストールする必要があります。

対処方法: 定足数サーバーソフトウェアがインストールされているホストに、次のパッケージをインストールします。

定足数サーバーで日本語のマニュアルページが必要である場合は、SUNWjscman (日本語マニュアルページ) パッケージをインストールします。

Sun Cluster 3.2 インストーラが簡体字中国語ロケールで、正しくないスワップサイズを表示する (6495984)

問題の概要: Sun Cluster 3.2 インストーラは、ソフトウェアの Sun Cluster 3.2 簡体中国語バージョンをインストールする際に、スワップ不足に関する警告メッセージを表示します。システム要件の確認画面で、インストーラは 0.0K バイトのサイズの正しくないスワップサイズを表示します。

対処方法: スワップサイズがシステム要件より大きい場合は、この問題を無視してもかまいません。C、つまり英語ロケールの SC 3.2 インストーラをインストールに使用できます。C ロケールではスワップサイズを正確に確認します。

実行時

SAP cleanipc バイナリに LD_LIBRARY_PATHUser_env パラメータが必要である (4996643)

問題の概要: 実行時リンク環境に /sapmnt/SAPSID/exe パスが含まれていない場合、cleanipc は失敗します。

対処方法: Solaris ルートユーザーとして、/sapmnt/SAPSID/exe パスを ld.config ファイルのデフォルトライブラリに追加します。

32 ビットアプリケーション向けに実行時リンク環境のデフォルトライブラリパスを構成するには、次のコマンドを入力します。


# crle -u -l /sapmnt/SAPSID/exe

64 ビットアプリケーション向けに実行時リンク環境のデフォルトライブラリパスを構成するには、次のコマンドを入力します。


# crle -64 -u -l /sapmnt/SAPSID/exe

metaclust のリターンステップエラー「RPC: Program not Registered」が原因でノードがパニックになる (6256220)

問題の概要: クラスタ停止の実行時に、ノードの 1 つが UCMMD よりもわずかに早くクラスタから離脱した場合、1 つまたは複数のノード上で UCMMD は再構成に移行する可能性があります。このような場合、UCMMD がリターンステップを実行しようとする間に、シャットダウンによりノード上で rpc.md コマンドが停止します。リターンステップでは、metaclust コマンドは RPC タイムアウトになり、rpc.mdcommd プロセスが見つからないため、エラーによりステップを終了します。このエラーが原因で UCMMD はノードを中止し、ノードがパニックになる場合があります。

対処方法: この問題は無視してもかまいません。ノードがバックアップを起動した場合、以前の再構成でエラーが発生したこととは関係なく、Sun Cluster ソフトウェアはこの状態を検出し、UCMMD の起動を許可します。

Sun Cluster リソース検証が netiflist プロパティーの IPMP グループのホスト名を受け付けない (6383994)

問題の概要: Sun Cluster リソース検証は、論理ホスト名または共有アドレスリソースの作成時には、netiflist プロパティーの IPMP グループのホスト名を受け付けません。

対処方法: 論理ホスト名および共有アドレスリソースの作成時に IPMP グループ名を指定する場合は、ノード名の代わりにノード ID を使用してください。

アップグレード

ルートディスクがカプセル化されている場合 vxlufinish スクリプトがエラーを返す (6448341)

問題の概要: この問題が生じるのは、元のディスクがルートでカプセル化され、Solaris 9 8/03 OS 上の VxVM 3.5 から Solaris 10 6/06 OS 上の VxVM 5.0 へのライブアップグレートが試行された場合です。vxlufinish スクリプトは次のエラーを表示して失敗します。


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solairs release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

対処方法: 代わりに、標準アップグレード、またはデュアルパーティションアップグレード方式を使用します。

今後 VxVM 5.0 用の Sun Cluster 3.2 ライブアップグレードが利用可能になるかどうかについては、Sun のサポートまたはご購入先にお問い合わせください。

ライブアップグレードでは、ブートディスクからのグローバルデバイスのマウントがサポートされている必要がある (6433728)

問題の概要: ライブアップグレード時に lucreate および luupgrade コマンドが、/global/.devices/node@N エントリに対応する代替ブート環境内の DID 名の変更に失敗します。

対処方法: ライブアップグレードを開始する前に、各クラスタノードで次の手順を実行します。

  1. スーパーユーザーとしてログインします。

  2. /etc/vfstab ファイルをバックアップします。


    # cp /etc/vfstab /etc/vfstab.old
    
  3. /etc/vfstab ファイルを編集するために開きます。

  4. /global/.device/node@N に対応する行を見つけます。

  5. グローバルデバイスエントリを編集します。

    • DID 名を物理名に変更します。

      /dev/did/{r}dsk/dYsZ/dev/{r}dsk/cNtXdYs Z に変更します。

    • global をエントリから削除します。

    次の例は、物理デバイス名に変更され、global エントリが削除された、/global/.devices/node@s に対応する DID デバイス d3s3 の名前を示しています。


    Original:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    Changed:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. すべてのクラスタノードで /etc/vfstab ファイルが変更されたら、クラスタのライブアップグレードを実行しますが、アップグレードされた代替ブート環境から再起動する前に中止します。

  7. アップグレードされていない現在のブート環境の各ノードで、元の /etc/vfstab ファイルを復元します。


    # cp /etc/vstab.old /etc/vfstab
    
  8. 代替ブート環境で、/etc/vfstab ファイルを開いて編集します。

  9. /global/.devices/node@N に対応する行を見つけ、エントリ末尾のダッシュ (-) を global という単語で置き換えます。


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. アップグレードされた代替ブート環境からノードを再起動します。

    /etc/vfstab ファイル内の DID 名は、自動的に置き換えられます。

vxlustart スクリプトがライブアップグレード時に代替ブート環境を作成するのに失敗する (6445430)

問題の概要: この問題は、Sun Cluster ライブアップグレード時に VERITAS Volume Manager (VxVM) をアップグレードする際に見られます。vxlustart スクリプトは、前のバージョンから Solaris OS と VxVM をアップグレードするために使用されます。スクリプトは次のようなエラーメッセージを表示して失敗します。


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

対処方法: クラスタを VxVM 5.0 にアップグレードする場合は、標準アップグレードまたはデュアルパーティションアップグレード方式を使用します。

今後 VxVM 5.0 用の Sun Cluster 3.2 ライブアップグレードが利用可能になるかどうかについては、Sun のサポートまたはご購入先にお問い合わせください。

ルートディスクがカプセル化されている場合、 vxio メジャー番号がノード間で異なる (6445917)

問題の概要: VERITAS Volume Manager (VxVM) を実行するクラスタでは、ルートディスクがカプセル化されている場合、次のいずれかのソフトウェアの標準アップグレードまたはデュアルパーティションアップグレードは失敗します。

クラスタノードはパニックになり、アップグレード後は起動できなくなります。これは、アップグレード時に VxVM により行われるメジャー番号またはマイナー番号の変更が原因です。

対処方法: アップグレードを開始する前にルートディスクのカプセル化を解除します。


注意 – 注意 –

上記の手順に正しく従わない場合、アップグレード中のすべてのノード上で予期せぬ深刻な問題が生じる場合があります。また、ルートディスクのカプセル化解除とカプセル化は、自動的に (毎回) ノードの追加の再起動の原因となるため、アップグレード時の必要な再起動の回数が多くなります。


Solaris 9 版の Sun Cluster バージョン 3.1 から Solaris 10 版の Sun Cluster バージョン 3.2 へライブアップグレードしたあと、ゾーンを使用できない (6509958)

問題の概要: Solaris 9 版の Sun Cluster Version 3.1 から Solaris 10 版の Sun Cluster Version 3.2 へライブアップグレードしたあと、クラスタソフトウェアでゾーンを正しく使用できません。問題は、Sun Cluster パッケージ用に pspool データが作成されないことです。このため、SUNWsczu のような、非大域ゾーンに伝播されるべきパッケージが正しく伝播されません。

対処方法: Sun Cluster パッケージが scinstall -R コマンドを使ってアップグレードされてから、クラスタがクラスタモードにブートされるまでの間に、後述のスクリプトを 2 回実行します。

Procedureスクリプトの使用手順

始める前に

次のいずれかの方法で、このスクリプトを準備して実行します。

  1. スーパーユーザーとしてログインします。

  2. 次の内容のスクリプトを作成します。

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. 変数 PLATFORMPATHNAME、および BASEDIR を設定します。

    これらの変数を環境変数として設定するか、または直接スクリプト内の値を変更します。

    PLATFORM

    プラットフォームの名前です。たとえば、sparcx86 です。デフォルトで、PLATFORM 変数は uname -p コマンドの出力に設定されます。

    PATHNAME

    Sun Cluster フレームワークまたはデータサービスパッケージをインストールできるデバイスへのパスです。この値は、pkgadd コマンドの -d オプションに対応します。

    たとえば、Sun Cluster フレームワークパッケージの場合、この値は次のような形式になります。


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    データサービスパッケージの場合、この値は次のような形式になります。


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    ルートパスとして使用し、pkgadd コマンドの -R オプションに対応する、ディレクトリのフルパス名です。ライブアップグレードの場合は、この値を、scinstall コマンドの -R オプションで使用されるルートパスに設定します。デフォルトで、BASEDIR 変数は、ルート (/) ファイルシステムに設定されます。

  4. Sun Cluster フレームワークパッケージ用に 1 回、データサービスパッケージ用に 1 回、スクリプトを実行します。

    スクリプトの実行後、各パッケージのコマンドプロンプトに次のメッセージが表示されます。


    Transferring pkgname package instance

    注 –

    パッケージ用の pspool ディレクトリがすでに存在する場合、またはスクリプトが同じパッケージセット用に 2 回実行された場合、次のエラーがコマンドプロンプトに表示されます。


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    このメッセージは無害なので、無視しても問題ありません。


  5. フレームワークパッケージとデータサービスパッケージの両方用にスクリプトを実行したあと、ノードをクラスタモードで起動します。

Sun Cluster 3.2 コアパッチをノードに追加しないと、既存の Sun Cluster 3.2 をパッチ適用したクラスタにノードを追加できない (6554107)

問題の概要: ノードが既存のクラスタノードと同じパッチを持っていることを確認せずに 新しいクラスタノードを追加すると、クラスタノードにパニックが発生する可能性があります。

対処方法: ノードをクラスタに追加する前に、新しいノードが既存のクラスタノードと同じレベルに最初にパッチ適用されていることを確認します。これを行わないと、クラスタノードにパニックが発生する可能性があります。

パッチと必須ファームウェアのレベル

Sun Cluster 構成のパッチに関する情報を以下に示します。Sun Cluster 3.2 ソフトウェアにアップグレードしている場合は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の第 8 章「Sun Cluster ソフトウェアのアップグレード」を参照してください。Sun Cluster 3.2 コア パッチを適用しても、ソフトウェアを Sun Cluster 3.2 リリースにアップグレードするのと同じ結果にはなりません。


注 –

パッチを適用または削除する前に、パッチの README を参照してください。


パッチ (ノード) 再起動メソッドを使用して Sun Cluster コアパッチ 125510 (S9/SPARC)、125511 (S10/SPARC)、または 125512 (S19/x64) をインストールする場合は、パッチの上位バージョンをインストールする前に -02 バージョンのパッチをインストールしている必要があります。-02 パッチをインストールせずに -03 以降 (存在する場合) のパッチをインストールしようとする場合は、再起動用クラスタメソッドを使用する必要があります。

パッチ適用シナリオの例については、次のリストを参照してください。


注 –

Sun Cluster 製品に必要なパッチを確認してダウンロードするためには、SunSolveTM ユーザーとして登録済みでなければなりません。SunSolve アカウントをまだ入手していない場合は、Sun のサービス担当者またはセールスエンジニアに問い合わせるか、あるいは http://sunsolve.sun.com でオンライン登録を行なってください。


Sun Cluster 3.2 コアパッチの適用

Sun Cluster 3.2 コアパッチを適用するには、次の手順を完了します。

ProcedureSun Cluster 3.2 コアパッチを適用する

  1. コアパッチ用の通常の再起動用パッチ手順を使用して、パッチをインストールします。

  2. パッチがすべてのノードに正しくインストールされ、正常に機能していることを検証します。

  3. このパッチで更新される、新しいバージョンのリソースタイプ、SUNW.HAStoragePlusSUNW.ScalDeviceGroup、および SUNW.ScalMountPoint を登録します。これらのタイプの既存のリソースすべてに、新バージョンのリソースタイプへのアップグレードを実行します。

    リソースタイプの登録については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』「リソースタイプの登録」を参照してください。


    注意 – 注意 –

    Sun Cluster 3.2 コアパッチが削除された場合は、手順 3 でアップグレードしたリソースすべてを、以前のリソースタイプのバージョンにダウングレードする必要があります。ダウングレードの手順を実行するには、これらのサービスの停止時間を計画しておく必要があります。したがって、Sun Cluster 3.2 コアパッチをクラスタに永続的に確定する準備ができるまでは、手順 3 を実行しないでください。


Sun Cluster 3.2 コアパッチの削除

Sun Cluster 3.2 コアパッチを削除するには、次の手順を完了します。

ProcedureSun Cluster 3.2 コアパッチを削除する

  1. クラスタ上のリソースタイプをリストします。


    # clrt list
    
  2. リストが SUNW.HAStoragePlus:5SUNW.ScalDeviceGroup:2、または SUNW.ScalMountPoint:2 を返す場合は、これらのリソースタイプを削除する必要があります。リソースタイプの削除の方法については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』「リソースタイプを削除する」を参照してください。

  3. すべてのクラスタノードを、非クラスタのシングルユーザーモードで再起動します。

    クラスタノードを非クラスタのシングルユーザーモードで再起動する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』『Sun Cluster のシステム管理 (Solaris OS 版)』「非クラスタモードでクラスタノードを起動する」を参照してください。

  4. Sun Cluster 3.2 コアパッチを、パッチをインストールした各ノードから削除します。


    # patchrm patch-id
    
  5. Sun Cluster 3.2 コアパッチを削除したすべてのノードを、クラスタモードで再起動します。

    Sun Cluster 3.2 コアパッチを削除したすべてのノードを、影響を受けないノードよりも前に再起動することにより、クラスタが CCR 内の正しい情報で確実に構成されます。クラスタ上のすべてのノードにコアパッチが適用されている場合、各ノードを任意の順序でクラスタモードで再起動できます。

    ノードをクラスタモードで再起動する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』『Sun Cluster のシステム管理 (Solaris OS 版)』「クラスタノードを再起動する」を参照してください。

  6. 残りのノードをクラスタモードで再起動します。

パッチ管理ツール

PatchPro パッチ管理技術を Patch Manager 2.0 (Solaris 9 OS) および Sun Update Connection 1.0 (Solaris 10 OS) として使用できるようになりました。

一部のパッチをノードが非クラスタモードのときに適用しなければならない場合は、パッチの手順でクラスタ全体をシャットダウンする必要がある場合以外は、一度に 1 ノードずつ、順次適用できます。ノードを準備して、非クラスタモードで起動する場合は、『Sun Cluster のシステム管理 (Solaris OS 版)』「再起動パッチを適用する (ノード)」の手順に従ってください。インストールを簡単にするために、非クラスタモードにするノードにすべてのパッチを一度に適用することを検討してください。

SunSolve Online

SunSolve Online Web サイトには、サン製品のパッチやソフトウェア、ファームウェアに関する最新情報が常時掲載されています。現在サポートされるソフトウェア、ファームウェア、およびパッチの最新のリビジョンについては、SunSolve Online サイト (http://sunsolve.sun.com ) にアクセスしてください。

Sun Cluster 3.2 のサードパーティによるパッチ情報は、SunSolve Info Doc により提供されています。この Info Doc ページでは、Sun Cluster 3.2 環境で使用する特定のハードウェアに関するサードパーティによるパッチ情報を提供しています。この Info Doc を見つけるには、SunSolve にログオンします。SunSolve ホームページから、検索基準ボックスに Sun Cluster 3.x Third-Party Patches と入力します。

Sun Cluster 3.2 ソフトウェアをインストールし、クラスタコンポーネント (Solaris OS、Sun Cluster ソフトウェア、ボリューム管理ソフトウェア、データサービスソフトウェア、またはディスクハードウェア) にパッチを適用する前に、取得したパッチに付属する各 README ファイルを確認してください。クラスタが適切に動作するためには、すべてのクラスタノードが同じパッチレベルになっていなければなりません。

特定のパッチの適用手順およびパッチの管理に関するヒントについては、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 10 章「Sun Cluster ソフトウェアとファームウェアのパッチ」を参照してください。

Sun Cluster 3.2 のマニュアル

日本語のマニュアルは docs.sun.com を参照してください。Sun Cluster 3.2 ユーザーマニュアルセットには次のマニュアルコレクションが含まれています。

Sun Cluster 3.2 ユーザーマニュアルは、PDF および HTML 形式で次の Web サイトから入手できます。

http://htt;://docs.sun.com/app/docs/prod/sun.cluster32


注 –

Sun Cluster 3.2 からは、個々のデータサービスに関するマニュアルは翻訳されません。個々のデータサービスに関するマニュアルは、英語でのみ提供されます。


Sun 製品資料の検索

Sun 製品資料の検索には docs.sun.com Web サイトからだけでなく検索エンジンも使用することができ、その場合は検索フィールドに次の構文を入力します。


検索語 site:docs.sun.com

たとえば、「broker」を検索するには、次のように入力します。


broker site:docs.sun.com

検索に java.sun.com、www.sun.com や developers.sun.com などほかの Sun Web サイトも含めるには、「docs.sun.com」の代わりに「sun.com」を検索フィールドに入力します。

Solaris OS の Sun Cluster 3.2 ソフトウェアのマニュアル

表 1 Solaris OS の Sun Cluster 3.2 ソフトウェアコレクション: ソフトウェアマニュアル

パート番号 

マニュアル名 

820–0335 

『Sun Cluster 3.2 Documentation Center 』

819-2969 

『Sun Cluster の概念 (Solaris OS 版)』

819-2972 

『Sun Cluster データサービス開発ガイド (Solaris OS 版)』

819-2974 

『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』

819-2973 

『Sun Cluster Error Messages Guide for Solaris OS 』

819-2968 

『Sun Cluster の概要 (Solaris OS 版)』

819–6811 

『Sun Cluster クイックリファレンス』

819-3055 

『Sun Cluster Reference Manual for Solaris OS 』

819-2970 

『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』

819–0912 

『Sun Cluster クイックスタートガイド (Solaris OS 版)』

819-2971 

『Sun Cluster のシステム管理 (Solaris OS 版)』

Solaris OS (SPARC Platform Edition) の Sun Cluster 3.2 データサービスマニュアル

表 2 Solaris OS (SPARC Platform Edition) の Sun Cluster 3.2 ソフトウェアコレクション : 各データサービスのマニュアル

パート番号 

マニュアル名 

819-3056 

『Sun Cluster Data Service for Agfa IMPAX Guide for Solaris OS 』

819-2975 

『Sun Cluster Data Service for Apache Guide for Solaris OS 』

819-3057 

『Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS 』

819-3058 

『Sun Cluster Data Service for DHCP Guide for Solaris OS 』

819-2977 

『Sun Cluster Data Service for DNS Guide for Solaris OS 』

819–5415 

『Sun Cluster Data Service for Kerberos Guide for Solaris OS 』

819-2982 

『Sun Cluster Data Service for MaxDB Guide for Solaris OS 』

819-3059 

『Sun Cluster Data Service for MySQL Guide for Solaris OS 』

819-3060 

『Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS 』

819-2090 

『Sun Cluster Data Service for NetBackup ガイド (Solaris OS 版)』

819-2979 

『Sun Cluster Data Service for NFS Guide for Solaris OS 』

819-3061 

『Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS 』

819-3062 

『Sun Cluster Data Service for Oracle E-Business Suite Guide for Solaris OS 』

819-2980 

『Sun Cluster Data Service for Oracle Guide for Solaris OS 』

819-2981 

『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』

819–5578 

『Sun Cluster Data Service for PostgreSQL Guide for Solaris OS 』

819-3063 

『Sun Cluster Data Service for Samba Guide for Solaris OS 』

819-2983 

『Sun Cluster Data Service for SAP Guide for Solaris OS 』

819-2984 

『Sun Cluster Data Service for SAP liveCache Guide for Solaris OS 』

819-2985 

『Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS 』

819-2986 

『Sun Cluster Data Service for Siebel Guide for Solaris OS 』

819-3069 

『Sun Cluster Data Service for Solaris Containers Guide 』

819-3064 

『Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS 』

819-2988 

『Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS 』

819-2987 

『Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS 』

819-2989 

『Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS 』

819-2990 

『Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS 』

819-3065 

『Sun Cluster Data Service for SWIFTAlliance Access Guide for Solaris OS 』

819-3066 

『Sun Cluster Data Service for SWIFTAlliance Gateway Guide for Solaris OS 』

819-2991 

『Sun Cluster Data Service for Sybase ASE Guide for Solaris OS 』

819-2992 

『Sun Cluster Data Service for WebLogic Server Guide for Solaris OS 』

819-3068 

『Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS 』

819-3067 

『Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS 』

Solaris OS (x86 Platform Edition) の Sun Cluster 3.2 データサービスマニュアル

表 3 Solaris OS (x86 Platform Edition) の Sun Cluster 3.2 ソフトウェアコレクション: 各データサービスのマニュアル

パート番号 

マニュアル名 

819-2975 

『Sun Cluster Data Service for Apache Guide for Solaris OS 』

819-2975 

『Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS 』

819-3058 

『Sun Cluster Data Service for DHCP Guide for Solaris OS 』

819-2977 

『Sun Cluster Data Service for DNS Guide for Solaris OS 』

819–5415 

『Sun Cluster Data Service for Kerberos Guide for Solaris OS 』

819-2982 

『Sun Cluster Data Service for MaxDB Guide for Solaris OS 』

819-3059 

『Sun Cluster Data Service for MySQL Guide for Solaris OS 』

819-3060 

『Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS 』

819-2979 

『Sun Cluster Data Service for NFS Guide for Solaris OS 』

819-3061 

『Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS 』

819-2980 

『Sun Cluster Data Service for Oracle Guide for Solaris OS 』

819-2981 

『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』

819–5578 

『Sun Cluster Data Service for PostgreSQL Guide for Solaris OS 』

819-3063 

『Sun Cluster Data Service for Samba Guide for Solaris OS 』

819-2983 

『Sun Cluster Data Service for SAP Guide for Solaris OS 』

819-2985 

『Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS 』

819-3069 

『Sun Cluster Data Service for Solaris Containers Guide 』

819-3064 

『Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS 』

819-2987 

『Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS 』

819-2988 

『Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS 』

819-2989 

『Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS 』

819-2990 

『Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS 』

819-2992 

『Sun Cluster Data Service for WebLogic Server Guide for Solaris OS 』

819-3067 

『Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS 』

819-3068 

『Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS 』

Solaris OS (SPARC Platform Edition) の Sun Cluster 3.1 - 3.2 ハードウェアコレクション

表 4 Solaris OS (SPARC Platform Edition) の Sun Cluster 3.1 - 3.2 ハードウェアコレクション

パート番号 

マニュアル名 

819-2993 

『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』

819–2995 

『Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS 』

819-3015 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS 』

819-3016 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS 』

819-3017 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 3900 Series or Sun StorEdge 6900 Series System Manual 』

819-3018 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS 』

819-3020 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS 』

819-3021 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS 』

819-2996 

『Sun Cluster 3.1 - 3.2 With StorEdge A1000 Array, Netra st A1000 Array, or StorEdge A3500 System Manual 』

819-3022 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge A3500FC System Manual for Solaris OS 』

819-2994 

『Sun Cluster 3.1 - 3.2 With Fibre Channel JBOD Storage Device Manual 』

817–5681 

『Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS 』

819-3023 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge T3 or T3+ Array Manual for Solaris OS 』

819-3019 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual 』

819-3024 

『Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS 』

Solaris OS (x86 Platform Edition) の Sun Cluster 3.1 — 3.2 ハードウェアコレクション

表 5 Solaris OS (x86 Platform Edition) の Sun Cluster 3.1 — 3.2 ハードウェアコレクション

パート番号 

マニュアル名 

819-2993 

『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』

817–0180 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS 』

819-3024 

『Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS 』

819-3021 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS 』

819-3020 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS 』

819-3019 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual 』

819-3018 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS 』

819-3016 

『Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS 』

819–2995 

『Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS 』

マニュアルに関する情報

この節では、Sun Cluster 3.2 リリースのマニュアル、オンラインヘルプ、マニュアルページの誤りや記載漏れについて説明します。

概念に関するガイド

この節では、『Sun Cluster の概念 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。

x86: Sun Cluster トポロジ

『Sun Cluster の概念 (Solaris OS 版)』「Sun Cluster トポロジ」の節にある次の記述は、Sun Cluster 3.2 リリースにはすでに該当しません。「x86 ベースのシステムで構成された Sun Cluster は、1 つのクラスタで 2 つのノードをサポートします。」

この記述は、次のように読み替えてください。「x86 ベースのシステムで構成された Sun Cluster 構成は、Oracle RAC を実行する 1 つのクラスタでは最大 8 つのノードをサポートし、Oracle RAC を実行しない 1 つのクラスタでは最大 4 つのノードをサポートします。」

ソフトウェアのインストール

この節では、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』内の記述の誤りや記載漏れについて説明します。

Sun Cluster Geographic Edition ソフトウェアを実行するクラスタのアップグレードの準備手順の記載漏れ

Sun Cluster Geographic Edition ソフトウェアも実行しているクラスタをアップグレードする場合、Sun Cluster ソフトウェアのアップグレードを開始する前に実行すべき追加の準備手順があります。これらの手順には、Sun Cluster Geographic Edition インフラストラクチャーのシャットダウンが含まれます。アップグレードする前に、『Sun Cluster Geographic Edition のインストール』「Sun Cluster Geographic Edition ソフトウェアのアップグレード」を参照してください。これらの手順には、いつ Sun Cluster Software Installation Guide に戻って Sun Cluster ソフトウェアアップグレードを実行するべきかも記述されています。

Sun Cluster データサービスの計画と管理

この節では、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。

非大域ゾーンのスケーラブルサービスのサポート

『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』「リソースタイププロパティー」 で、Failover リソースプロパティーの説明に、非大域ゾーンでのスケーラブルサービスのサポートに関する記述が抜けています。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。

Sun Cluster Data Service for MaxDB ガイド

この節では、『Sun Cluster Data Service for MaxDB Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。

SPARC および x86 ベースシステム上の非大域ゾーンでの Sun Cluster Data Service for MaxDB サポートに関する変更

Sun Cluster Data Service for MaxDB は、SPARC および x86 ベースのシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service for MaxDB ガイドに対して次の変更を加える必要があります。次の手順は、大域ゾーンで実行するように構成されたクラスタ上で実行できます。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述のように不要になる手順もあります。

Sun Cluster Data Service for SAP ガイド

この節では、『Sun Cluster Data Service for SAP Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。

SPARC および x86 ベースシステム上の非大域ゾーンでの SAP サポートの変更

Sun Cluster Data Service for SAP は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service for SAP ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。

Sun Cluster Data Service for SAP liveCache ガイド

この節では、『Sun Cluster Data Service for SAP liveCache Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。

SPARC および x86 ベースシステム上の非大域ゾーンでの SAP liveCache サポートの変更

Sun Cluster Data Service for SAP liveCache は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service SAP liveCache ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。

Sun Cluster Data Service for SAP Web Application Server ガイド

この節では、『Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS』内の記述の誤りと記載漏れについて説明します。

Sun Cluster HA for SAP Web Application Server の SAP 7.0 のサポート (6461002)

SAP 7.0 および NW2004SR1 で SAP インスタンスが起動されると、sapstartsrv プロセスがデフォルトで起動されます。sapstartsrv プロセスは、Sun Cluster HA for SAP Web Application Server によって制御されません。このため、Sun Cluster HA for SAP Web Application Server による SAP インスタントの停止またはフェイルオーバー時に、sapstartsrv プロセスは停止しません。

Sun Cluster HA for SAP Web Application による SAP インスタンスの起動時に、sapstartsrv プロセスが起動されることを回避するには、startsap スクリプトを変更します。さらに、すべての Sun Cluster ノードで /etc/rc3.d/S90sapinit のファイル名を /etc/rc3.d/xxS90sapinit に変更します。

SPARC および x86 ベースシステム上の非大域ゾーンでの SAP Web Application Server サポートの変更

Sun Cluster Data Service for SAP Web Application Server は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service SAP Web Application Server ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。

非大域ゾーン上の SAP Web Application Server の HASP 構成用設定 (6530281)

非大域ゾーン用に HAStoragePlus リソースを構成するには、次の手順に従います。


注 –

Procedure非大域ゾーン上の SAP Web Application Server の HAStoragePlus 構成用に設定する

  1. クラスタ内の任意のノードで、スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。

  2. HAStoragePlus リソースを含む非大域ゾーンで、スケーラブルリソースグループを作成します。


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    リソースグループのアクティブな主ノードの最大数を指定します。

    -p Desired_primaries=n

    リソースグループが起動するアクティブな主ノードの数を指定します。

    -n node-zone-list

    HAStoragePlus リソースグループのノードリストに、nodename:zonename ペアのリストを、HAStoragePlus リソースグループのノードリストとして指定します。この指定により、SAP インスタンスがオンラインになります。

    hasp-resource-group

    追加するスケーラブルリソースグループの名前を指定します。任意の名前の先頭文字は ASCII にする必要があります。

  3. HAStoragePlus リソースのリソースタイプを登録します。


    # clresourcetype register HAStoragePlus
  4. HAStoragePlus のリソース hasp-resource を作成し、SAP ファイルシステムのマウントポイントと広域デバイスパスを定義します。


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p 
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    リソースグループの名前を指定します。

    GlobalDevicePaths

    次の値が含まれます。

    • 広域デバイスグループ名 (例: sap-dg, dsk/d5 )

    • 広域デバイスへのパス (例: /dev/global/dsk/d5s2/dev/md/sap-dg/dsk/d6)

    FilesystemMountPoints

    次の値が含まれます。

    • ローカルまたはクラスタファイルシステムのマウントポイント。たとえば、/local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC など。

    HAStoragePlus リソースが、有効な状態で作成されます。

  5. SAP アプリケーションのリソースタイプを登録します。


    # clresourcetype register resource-type
    
    resource-type

    追加するリソースタイプの名前を指定します。詳細は、「サポートされる製品」を参照してください。

  6. SAP リソースグループの作成


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    SAP サービスリソースグループを指定します。

  7. SAP アプリケーションリソースを resource-group-1 に追加し、hastorageplus-1 に対する依存関係を設定します。


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. フェイルオーバーリソースグループをオンラインにします。


    # clresourcegroup online resource-group-1
    

システム管理ガイド

この節では、『Sun Cluster のシステム管理 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。

非クラスタモードで起動されたノードからの Solaris Volume Manager メタセットの取得

Procedure非クラスタモードで起動されたノードから Solaris Volume Manager メタセットを取得する

テストの目的で、アプリケーションをクラスタ外で実行するには、次の手順に従います。

  1. 定足数デバイスが Solaris Volume Manager メタセットで使用されるかどうかを判定し、定足数デバイスが scsi2 または scsi3 予約を使用するかどうかを判別します。


    # clquorum show
    
    1. 定足数デバイスが Solaris Volume Manager メタセット内にある場合、あとで非クラスタモードで取得されるメタセットの一部ではない定足数デバイスを新しく追加します。


      # clquorum add did
      
    2. 古い定足数デバイスを削除します。


      # clqorum remove did
      
    3. 定足数デバイスが scsi2 予約を使用する場合、scsi2 予約を古い定足数から消し込み、scsi2 予約が残っていないことを確認します。


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. 非クラスタモードで起動するノードを退避します。


    # clresourcegroup evacuate -n targetnode
    
  3. HAStorage または HAStoragePlus リソースを含み、また、あとで非クラスタモードで取得するメタセットの影響を受けるデバイスやファイルシステムを含むリソースグループをすべてオフラインにします。


    # clresourcegroup offline resourcegroupname
    
  4. オフラインにしたリソースグループ内のすべてのリソースを無効にします。


    # clresource disable resourcename
    
  5. リソースグループを非管理状態に切り替えます。


    # clresourcegroup unmanage resourcegroupname
    
  6. 対応するデバイスグループをオフラインにします。


    # cldevicegroup offline devicegroupname
    
  7. デバイスグループを無効にします。


    # cldevicegroup disable devicegroupname
    
  8. パッシブノードを非クラスタモードで起動します。


    # reboot -x
    
  9. 次に進む前に、パッシブノードで起動プロセスが完了したことを確認します。

    • Solaris 9

      ログインプロンプトが表示されることが起動プロセスの完了を意味しているので、アクションは不要です。

    • Solaris 10


      # svcs -x
      
  10. メタセット内のディスクに scsi3 予約があるかどうかを判別します。メタセット内のすべてのディスクで次のコマンドを実行します。


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. scsi3 予約がある場合は、消します。


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. 退避したノード上のメタセットを取得します。


    # metaset -s name -C take -f
    
  13. メタセット上で定義されたデバイスを含むファイルシステムをマウントします。


    # mount device mountpoint
    
  14. アプリケーションを起動し、必要なテストを実行します。テスト終了後、アプリケーションを停止します。

  15. ノードを再起動し、起動プロセスが完了するまで待機します。


    # reboot
    
  16. デバイスグループをオンラインにします。


    # cldevicegroup online -e devicegroupname
    
  17. リソースグループを起動します。


    # clresourcegroup online -eM  resourcegroupname 
    

Sun Cluster での Solaris IP フィルタリングの使用

Sun Cluster は Solaris IP フィルタリングをサポートしますが、次の制限があります。

ProcedureSolaris IP フィルタリングを設定する

  1. /etc/iu.ap ファイル内で、clhbsndr pfil をモジュールリストにリストするようにパブリック NIC エントリを変更します。

    pfil は、リストの最後のモジュールである必要があります。


    注 –

    プライベートおよびパブリックネットワークに対して同じタイプのアダプタを使用している場合、/etc/iu.ap ファイルへの編集は、pfil をプライベートネットワークストリームにプッシュします。ただし、ストリーム生成時に、クラスタトランスポートモジュールは望ましくないモジュールをすべて自動的に削除するため、pfil はプライベートネットワークストリームから削除されます。


  2. IP フィルタが非クラスタモードで確実に機能するようにするには、/etc/ipf/pfil.ap ファイルを更新します。

    /etc/iu.ap ファイルに対する更新は、多少異なります。詳細は、IP フィルタのマニュアルを参照してください。

  3. 影響を受けるすべてのノードを再起動します。

    ノードを順次、起動できます。

  4. 影響を受けるすべてのノード上の /etc/ipf/ipf.conf ファイルに、フィルタルールを追加します。IP フィルタルールについては、ipf(4) を参照してください。

    Sun Cluster ノードにフィルタルールを追加する際は、次のガイドラインと要件に留意してください。

    • Sun Cluster は、ネットワークアドレスをノードからノードへフェイルオーバーします。フェイルオーバー時に特別な手順やコードは必要ありません。

    • 論理ホストネームの IP アドレスと共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノード上で同一である必要があります。

    • 予備ノードに関するルールは、存在しない IP アドレスを参照します。このルールは、依然として IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。

    • すべてのフィルタリングルールは、同じ IPMP グループ内のすべての NIC で同一である必要があります。言い換えると、ルールがインタフェース特有の場合、同じ IPMP グループ内のすべてのほかのインタフェースにも同じルールが存在する必要があります。

  5. ipfilter SMF サービスを有効にします。


    # svcadm enable /network/ipfilter:default
    

データサービス開発ガイド

この節では、『Sun Cluster データサービス開発ガイド (Solaris OS 版)』 内の記述の誤りと記載漏れについて説明します。

非大域ゾーンの特定のスケーラブルサービスのサポート

『Sun Cluster データサービス開発ガイド (Solaris OS 版)』「リソースタイププロパティー」 で、Failover リソースプロパティーの説明に非大域ゾーンでのスケーラブルサービスのサポートに関する記述が抜けています。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。

メソッドのタイムアウト動作が変更されている

Sun Cluster 3.2 リリースにおけるメソッドのタイムアウト動作の変更についての説明がありません。RGM メソッドのコールバックがタイムアウトすると、プロセスは SIGTERM シグナルではなく、SIGABRT シグナルを使用して停止されます。これにより、プロセスグループのすべてのメンバーがコアファイルを生成します。


注 –

新しいプロセスグループを作成するデータサービスメソッドを書かないでください。データサービスメソッドで新しいプロセスグループを作成する必要がある場合は、SIGTERM および SIGABRT シグナルのシグナルハンドラも書きます。シグナルハンドラが親プロセスを終了する前に、SIGTERM または SIGABRT シグナルを子プロセスグループに転送するシグナルハンドラを書きます。これにより、メソッドにより生じたすべてのプロセスが正しく終了する可能性が高くなります。


CRNP は大域ゾーンでのみ動作する

『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の第 12 章「クラスタ再構成通知プロトコル」 に、Solaris 10 OS では CNRP (Cluster Reconfiguration Notification Protocol) が大域ゾーンでのみ動作するという説明が抜けています。

必要な Solaris ソフトウェアグループの説明が不明確

『Sun Cluster データサービス開発ガイド (Solaris OS 版)』「データサービス作成用開発環境の設定」には、Solaris ソフトウェアグループの Developer または Entire Distribution が必要であるという注釈があります。この説明は、開発マシンに該当します。しかし、説明がクラスタ上でのデータサービスのテストについての説明のあとにあるため、データサービスが実行されているクラスタの必要条件であるかのように誤解される可能性があります。

定足数サーバーユーザーズガイド

この節では、『Sun Cluster 定足数サーバーユーザーズガイド』内の記述の誤りと記載漏れについて説明します。

サポートされるソフトウェアおよびハードウェアプラットフォーム

次のインストールの必要条件およびガイドラインが抜けているかまたは不明確です。

マニュアルページ

この節では、Sun Cluster のマニュアルページの誤り、記載漏れ、および追加について説明します

ccp(1M)

ccp(1M) マニュアルページの次の更新された概要の節と追加されたオプションの節は、Cluster Control Panel (CCP) ユーティリティーでセキュアシェルがサポートされるようになったことについて説明しています。

形式


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

オプション

次のオプションを指定できます。

-l username

ssh 接続のためのユーザー名を指定します。このオプションは、ユーティリティーが CCP から起動される際、cconsolecrlogin、または cssh ユーティリティーに渡されます。ctelnet ユーティリティーは、このオプションを無視します。

-l オプションが指定されていない場合、CCP を起動したユーザー名が有効になります。

-p ssh-port

使用するセキュアシェルポート番号を指定します。このオプションは、 ユーティリティーが CCP から起動される際、cssh ユーティリティーに渡されます。cconsolecrlogin、および ctelnet ユーティリティーは、このオプションを無視します。

-p オプションが指定されていない場合、安全な接続のためデフォルトのポート番号 22 が使用されます。

-s

telnet 接続の代わりに、ノードコンソールへのセキュアシェル接続を使うことを指定します。このオプションは、ユーティリティーが CCP から起動される際、cconsole ユーティリティーに渡されます。crlogincssh、および ctelnet ユーティリティーは、このオプションを無視します。

-s オプションが指定されていない場合、cconsole ユーティリティーは、コンソールに telnet で接続します。

-s オプションを上書きするには、cconsole グラフィカルユーザーインタフェース (GUI) で「オプション」メニューの「SSH の使用」チェックボックスを選択解除します。

cconsole(1M)、crlogin(1M)、cssh(1M)、および ctelnet(1M)

cconsolecrlogincssh、および ctelnet を組み合わせたマニュアルページの、次の更新された「形式」の節と追加された「オプション」の節は、Cluster Control Panel ユーティリティーでセキュアシェルがサポートされるようになったことについて記述しています。

形式


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

説明

cssh

このユーティリティーは、セキュアシェルによりクラスタノードに直接接続を確立します。

オプション

-l username

リモート接続のための ssh ユーザー名を指定します。このオプションは、cconsolecrlogin、および cssh コマンドで有効です。

あとで指定されるクラスタとノードが、接続時に同じユーザー名を使用するように、この引数の値は記憶されます。

-l オプションが指定されていない場合、コマンドを起動したユーザー名が有効になります。

-p ssh-port

使用するセキュアシェルポート番号を指定します。このオプションは、cssh コマンドで有効です。

-p オプションが指定されていない場合、安全な接続のためデフォルトのポート番号 22 が使用されます。

-s

ノードコンソールに接続するために、 telnet の代わりにセキュアシェルを使用することを指定します。このオプションは、cconsole コマンドで有効です。

-s オプションが指定されていない場合、ユーティリティーはコンソールに telnet で接続します。

cconsole グラフィカルユーザーインタフェース (GUI) から -s オプションを上書きするには、「オプション」メニューの「SSH の使用」チェックボックスを選択解除します。

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

Failover リソースタイプのプロパティーに Sun Cluster 3.2 リリースの非大域ゾーンでのスケーラブルサービスのサポートに関する誤った記述が含まれます。これは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。

serialports(4)

次の情報は、serialport(4) のマニュアルページの「説明」の節への追加です。

ノードコンソールへのセキュアシェル接続をサポートするには、/etc/serialports ファイル内に、各ノードのコンソールアクセスデバイス名およびセキュアシェルポート番号を指定します。コンソールアクセスデバイスでデフォルトのセキュアシェル構成を使用する場合は、ポート番号 22 を指定します。

SUNW.Event(5)

SUNW.Event(5) のマニュアルページに、Solaris 10 OS では、CRNP (Cluster Reconfiguration Notification Protocol) は大域ゾーンでのみ動作するという記述が抜けています。