このマニュアルでは、次の内容について説明します。
Sun Cluster 2.2 は SolarisTM 2.6 と Solaris 7 のオペレーティング環境で動作します。
Sun Cluster 2.2 は完全に国際化され、2000 年問題に対応しています。
SolsticeTM HA 1.3、Sun Cluster 2.0、Sun Cluster 2.1 は Sun Cluster 2.2 にアップグレードできます。
Tivoli、Lotus Notes、NetscapeTM の LDAP データサービスのサポートが追加されました。
SunTM Enterprise 250 および Sun Enterprise 450 の私設ネットワークに対する PCI (Peripheral Component Interconnect) SCI (Scalable Coherent Interface) がサポートされました。
公衆ネットワークに対する Gigabit Ethernet がサポートされました。
このリリースには、新しい JavaTM ベース GUI のクラスタモニターである Sun Cluster Manager (SCM) が含まれています。この GUI は、以前のリリースの Sun Cluster の Cluster Monitor (clustmon) GUI に置き換わるものです。Sun Cluster Manager についての詳細は、『Sun Cluster 2.2 のシステム管理』か、オンラインヘルプを参照してください。
次の Web サイトにも Sun Cluster 2.2 の情報があります。
http://www.sun.com/clusters (英語)
http://www.sun.co.jp/clusters (日本語)
この節では、Sun Cluster 2.2 でサポートされるソフトウェア製品について説明します。
サポートされるサーバープラットフォームや記憶装置については、ご購入先にお問い合わせください。
Sun Cluster 2.2 では、次のボリュームマネージャがサポートされます。
ボリュームマネージャ |
リリース |
Solaris のバージョン |
---|---|---|
Cluster Volume Manager |
2.2.1 |
2.6 |
Solstice DiskSuiteTM |
4.2 |
2.6、7 |
Sun StorEdge Volume ManagerTM |
2.6 |
2.6 |
1 つのクラスタ内では複数のボリュームマネージャを同時に使用できません。クラスタごとに 1 つのボリュームマネージャだけを使用してください。
Sun Cluster 2.2 では、次のデータサービスがサポートされます。
Sun Cluster 2.2 には、次の制限事項が適用されます。
共有 CCD は SSVM を実行している 2 ノードクラスタのオプション機能ですが、共有 CCD は Solstice DiskSuite 構成では使用できません。
be FastEthernet デバイスドライバ はサポートを中止したため、Solaris 7 オペレーティング環境ではサポートされません。このため、クラスタ相互接続に be ドライバを使用する SPARCserverTM 1000 と SPARCcenterTM 2000 は、Solaris 7 オペレーティング環境上の Sun Cluster 2.2 ではサポートされません。これらのサーバーは、Solaris 2.6 オペレーティング環境上の Sun Cluster 2.2 でサポートされます。
Sun Cluster HA for NFS リソースのクロスマウントはサポートされません。
ユーザー定義スクリプト clustername.reconfig.user_script は Sun Cluster 2.2 ではサポートされません。
scconf(1M) の +D オプションは Solstice DiskSuite では使用できません。
この節では、以前のリリースからの機能およびコマンドの変更について説明します。詳細は、関連するマニュアルページを参照してください。
Sun Cluster 2.2 - 次の Solstice HA 1.3 コマンドは Sun Cluster 2.2 で変更または削除されました。
|
Solstice HA 1.3 |
Sun Cluster 2.2 |
---|---|---|
変更 |
hainstall |
scinstall |
hainetconfig |
hadsconfig |
|
haremove |
scinstall |
|
hasetup |
scconf / scinstall |
|
hastart |
scadmin startcluster (最初のノード)。scadmin startnode (残りのノード)。 |
|
hastop |
scadmin stopnode |
|
削除 |
hacheck |
|
hafstab |
||
halicense |
||
haload |
Sun Cluster 2.1 コマンドの scinstall(1M) は Sun Cluster 2.2 で変更されました。現在の構文と使用法については、scinstall(1M) のマニュアルページを参照してください。
Sun StorEdge Volume Manager (SSVM) - 次の (1M) コマンドとオプションは SSVM だけでサポートされます。詳細は、関連するマニュアルページを参照してください。
confccdssa
scconf -q
scconf -F
scconf -S
scadmin reldisks
scadmin resdisks
Solstice DiskSuite - 次の変更が Solstice DiskSuite に適用されました。
scadmin(1M) の reserve オプションは Solstice DiskSuite だけで使用されます。
scdidadm(1M) コマンドが Solstice DiskSuite 構成で新しく追加されました。ディスク ID のインスタンス番号とディスクへのリモートパス間にマッピングを作成し、ディスク ID のメジャー番号を検査するために使用します。
Sun Cluster 2.2 では、Oracle の Group Membership Services (GMS) デーモンは scogms(1M) を使用しても Sun Cluster フレームワークの一部としては起動されません。したがって、Oracle Paralle Server データベースの場合、クラスタノード上の Oracle Parallel Server Option インストールが提供するバイナリ ogmsctl を使用して、手動で GMS デーモンを起動する必要があります。ogmsctl デーモンは、ノード上のインスタンスが排他モードで起動され た場合でも、動作していなければなりません。したがってこのデーモンは、データベースが作成されるときに動作している必要があります。
GMS バイナリである ogms と ogmsctl は、$ORACLE_HOME の下の /bin ディレクトリ内にあります。GMS デーモンのデフォルトディレクトリは、/tmp/.ogms で す。このディレクトリには、追跡ファイルと gms0000.dat ファイルがあります。
GMS デーモンはユーザー oracle でログインして起動しなければなりません。次のコマンドで GMS デーモンを起動します。
# su - oracle $ ogmsctl start |
デーモンを正常に起動するには、それが実行されるノードがクラスタのメンバーでなければなりません。
次のコマンドで GMS デーモンを停止します。
$ ogmsctl stop |
ogmsctl コマンドには次のオプションがあります。
オプション |
説明 |
---|---|
start |
GMS を起動する。 |
stop |
GMS を停止する。 |
abort |
GMS を強制終了する。 |
trace=x |
追跡レベルを x に設定する。 |
status |
GMS が動作しているかを調べる。 |
interactive |
GMS デバッガモードに入る。 |
ogms_home=x |
GMS ホームディレクトリを x に設定する。 |
global-status |
アクティブな GMS ノードを取得する。 |
group-status domain group |
グループメンバー情報の一覧を取得する。 |
ライセンス証書は、Sun Cluster 2.2 フレームワーク、つまり、Sun Cluster 2.2 を実行するハードウェアプラットフォームごとに発行されます。また、各 Sun Cluster データサービス、つまり、ノードごとにも発行されます。
Solstice DiskSuite または CVM にはライセンスは必要ありません。SSVM 製品には独自のライセンスが含まれています。
Sun Cluster 2.2 フレームワークを持っているだけではライセンスを持っていることにはなりません。技術サポートなどのサポートサービスを受けるときには、所有権を示す証明としてライセンス証書を持っていることが必要です。ライセンスについての詳細は、http://www.sun.com/licensing/ を参照してください。
サン以外の製品のライセンスについては、その製品のサービスプロバイダにお問い合わせください。
Sun Cluster 2.2 リリースは次の CD-ROM で構成されています。
Sun Cluster 2.2 ソフトウェア
Solstice DiskSuite 4.2 ソフトウェアとオンラインマニュアル (AnswerBook2TM)
Cluster Volume Manager 2.2.1 ソフトウェア (Oracle Parallel Server (OPS) を実行するユーザー向け)
Sun StorEdge Volume Manager 2.6 ソフトウェア
Solstice DiskSuite 4.2 のソフトウェアとオンラインマニュアルのインストールについての詳細は、「Solstice DiskSuite 4.2 のインストールとアップグレード」を参照してください。
CVM のインストールと構成についての詳細は、『Sun Cluster 2.2 Cluster Volume Manager ガイド』を参照してください。
SSVM のインストールと構成の手順については、ご使用の Sun StorEdge ボリュームマネージャのマニュアルと『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
将来、CVM 2.2.1 は CVM 3.0 に変更されます。このとき、既存構成のサポートを継続するには、CVM 2.2.1 を CVM 3.0 にアップグレードする必要があります。
Sun Cluster のインストール手順は Solstice HA 1.3 と Sun Cluster 2.1 から大幅に変更されました。Sun Cluster 2.2 では、対話型コマンド scinstall(1M) を使用してソフトウェアをインストールし、クラスタ構成要素 (論理ホストやネットワークインタフェースなど) を設定します。
Sun Cluster をインストールおよび構成する手順は 3 つの部分に分けられます。
管理ワークステーションの準備とクライアントソフトウェアのインストール
この手順では、Solaris オペレーティング環境および Sun Cluster 2.2 クライアントソフトウェアを管理ワークステーションにインストールします。
サーバーソフトウェアのインストール
この手順では、まず、Cluster Console を使用し、Solaris オペレーティング環境と Sun Cluster 2.2 ソフトウェアをすべてのクラスタノードにインストールします。次に、scinstall(1M) を使用し、ネットワークインタフェース、論理ホスト、定足数デバイスを設定します。次に、データサービスとボリュームマネージャサポートパッケージを選択します。
クラスタの構成と起動
この手順では、まず、パスを設定します。次に、パッチをインストールします。次に、ボリュームマネージャ、SCI、PNM バックアップグループ、論理ホスト、データサービスをインストールおよび構成します。次に、クラスタを起動します。
詳細な手順については、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
すでに Solstice HA 1.3 を使用している場合で、 Sun Cluster 2.2 を使用するためには、Solstice DiskSuite 4.2 をアップグレードしなければなりません。Solstice DiskSuite 4.2 ソフトウェアとオンラインマニュアルは次のような別々の CD-ROM で提供されます。
Solstice DiskSuite 4.2 ソフトウェア
AnswerBook2 サーバー
Solstice DiskSuite 4.2 AnswerBookTM。Solstice DiskSuite 4.2 AnswerBook には Solstice DiskSuite 4.2 のすべてのユーザーマニュアルが入っています。この中には、Solstice DiskSuite 4.2 をインストールおよび構成する方法を説明している『Solstice DiskSuite 4.2 ご使用にあたって』が含まれています。
Solstice DiskSuite 4.2 のマニュアルには、Solaris Easy Access Server のマニュアル、Solaris Web Start、および i386 を参照している箇所があります。Sun Cluster 2.2 で使用する特別版の Solstice DiskSuite 4.2 は、完全にスタンドアロンであるため、このような参照は無視してください。
Solstice DiskSuite 4.2 のインストール手順を参照するには、次の手順に従ってください。
HTML ファイルを表示できるブラウザを使用し、Solstice DiskSuite 4.2 の CD-ROM に入っている README ファイルを開きます。たとえば、Netscape では次のようにします。
Netscape ブラウザのメニューバーから、「ファイル」->「ページを開く」->「ファイルを選択」を選択します。「ファイルブラウザ」ダイアログボックスが表示されます。
ファイル /cdrom/cdrom0/README.html を選択します。ブラウザに README.html ファイルが表示されます。
README ファイルの指示に従い、AnswerBook2 サーバーと Solstice DiskSuite 4.2 AnswerBook をインストールします。
Solstice DiskSuite 4.2 AnswerBook にアクセスし、『Solstice DiskSuite 4.2 ご使用にあたって』の指示に従い、Solstice DiskSuite をインストールします。
Solaris 2.6 または Solaris 7 のどちらかで Solstice DiskSuite 4.2 を実行するためには、最新バージョンのパッチ 106627 が必要です。このパッチは、ご購入先および SunSolve の Web サイト (http://sunsolve.sun.com/ または http://sunsolve.sun.co.jp/) から入手できます。
以前のバージョンの Solstice DiskSuite からアップグレードするとき、SUNWmd パッケージを追加するかどうかをたずねられます。次の例を見ると、いくつかのファイルにアスタリスクが付いています。これは、そのファイルが重複していることを示しています。各プロンプトに y と答えると、新しいコマンドがインストールされます。しかし、重複しているファイルは上書きされません。
新しい SUNWmd パッケージを追加する前に、古い SUNWmd パッケージを削除しないでください。削除すると、すべてのデータにアクセスできなくなります。
# pkgadd -d . SUNWmd Processing package instance <SUNWmd> from </net/sag/export/unbundled/Solstice/disksuite/disksuite_4_2_seas/sparc> Solstice DiskSuite (sparc) 4.2,REV=1998.02.09.12.47.28 Copyright 1998 Sun Microsystems, Inc. All rights reserved. ## Executing checkinstall script. This is an upgrade. Conflict approval questions may be displayed. The listed files are the ones that will be upgraded. Please answer "y" to these questions if they are presented. Using </> as the package base directory. ## Processing package information. ## Processing system information. 26 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. The following files are already installed on the system and are being used by another package: ../etc/init.d/SUNWmd.init /etc/init.d/SUNWmd.sync /etc/opt/SUNWmd/lock /etc/opt/SUNWmd/md.cf /etc/opt/SUNWmd/md.ctlrmap * /etc/opt/SUNWmd/md.tab /etc/opt/SUNWmd/mddb.cf /kernel/drv/md * /kernel/drv/md.conf /kernel/misc/md_hotspares /usr/opt/SUNWmd/man/man7/md.7 /usr/opt/SUNWmd/sbin/growfs /usr/opt/SUNWmd/sbin/metaclear /usr/opt/SUNWmd/sbin/metadb /usr/opt/SUNWmd/sbin/metadetach /usr/opt/SUNWmd/sbin/metahs /usr/opt/SUNWmd/sbin/metainit /usr/opt/SUNWmd/sbin/metaoffline /usr/opt/SUNWmd/sbin/metaonline /usr/opt/SUNWmd/sbin/metaparam /usr/opt/SUNWmd/sbin/metarename /usr/opt/SUNWmd/sbin/metareplace /usr/opt/SUNWmd/sbin/metaroot /usr/opt/SUNWmd/sbin/metaset /usr/opt/SUNWmd/sbin/metastat /usr/opt/SUNWmd/sbin/metasync /usr/opt/SUNWmd/sbin/metattach /usr/opt/SUNWmd/sbin/rpc.metad /usr/opt/SUNWmd/sbin/rpc.metamhd * - conflicts with a file which does not belong to any package. Do you want to install these conflicting files [y,n,?,q] y |
この節は、本来 Solstice DiskSuite メディエータ (dual-string 構成) を使用し、Solstice HA 1.3 下で設定されていたクラスタだけに関連します。この節では、Solstice HA 1.3 から Sun Cluster 2.2 にアップグレードするときに、メディエータの構成に自動的に行われる変更について説明します。ユーザーには直接影響しませんが、クラスタに保存されている構成情報の変更には注意が必要です。
『Sun Cluster 2.2 ソフトウェアのインストール』で説明されている Solstice HA 1.3 から Sun Cluster 2.2 へのアップグレード手順を行うと、Solstice HA 1.3 メディエータの構成が変更されます。次に、元の Solstice HA 1.3 メディエータの構成の例を示します。
メディエータのホスト |
別名 |
---|---|
ha-red |
ha-red-priv1, ha-red-priv2 |
ha-green |
ha-green-priv1, ha-green-priv2 |
Sun Cluster 2.2 アップグレード手順を実行した後、上記の構成は次のように変更されます。
メディエータのホスト |
別名 |
---|---|
ha-red |
204.152.65.34 |
ha-green |
204.152.65.33 |
Solstice HA 1.3 では、ホストは物理名によるプライベートリンクを表していましたが、Sun Cluster 2.2 では、私設リンクの IP アドレスが使用されます。
Sun Cluster 2.2 用のメディエータの構成についての詳細は、『Sun Cluster 2.2 のシステム管理』を参照してください。
Solstice HA 1.3 または Sun Cluster 2.1 から Sun Cluster 2.2 へのアップグレードを実行する前に、次の SAP に関する項目に注意してください。
各ノードにおいて、Solstice HA 1.3 または Sun Cluster 2.1 の hasap_start_all_instances スクリプトまたは hasap_stop_all_instances スクリプトをカスタマイズしている場合、Sun Cluster 2.2 へのアップグレードを開始する前に、これらのスクリプトを安全な場所の保存し、アップグレードが完了した後に復元してください。この作業を行わないと、Sun Cluster 2.2 によって古いスクリプトが削除され、カスタマイズした情報が失われます。
Sun Cluster 2.2 で実装される構成パラメータは、Solstice HA 1.3 および Sun Cluster 2.1 で実装される構成パラメータとは異なります。したがって、Sun Cluster 2.2 へアップグレードした後は、hadsconfig(1M) コマンドを実行し、Sun Cluster HA for SAP を再構成しなければなりません。
アップグレードを開始する前に、既存の構成を表示し、現在の構成変数をメモしておきます。
Solstice HA 1.3 の場合は、hainetconfig(1M) コマンドで構成を表示します。
Sun Cluster 2.1 の場合は、hadsconfig(1M) コマンドで構成を表示します。
Sun Cluster 2.2 へのアップグレード後、hadsconfig(1M) コマンドでインスタンスを再生成します。
Sun Cluster 2.2 では、hareg -n コマンドは Sun Cluster HA for SAP データサービス全体 (すべてのインスタンスと障害モニターを含む) を停止します。以前のリリースでは、hareg -n コマンドは、Sun Cluster HA for SAP とともに使用するとき、障害モニターだけを停止します。
また、hareg -y で Sun Cluster HA for SAP データサービスを有効にする前に、SAP 中央インスタンスを停止しなければなりません。停止しなければ、Sun Cluster HA for SAP データサービスはインスタンスを適切に起動および監視できません。
すべてのパッチは SunSolve から入手できます。常に各パッチの最新バージョンをインストールするようにしてください。最新のパッチ情報については、SunSolve の Web サイト (http://sunsolve.sun.com/ または http://sunsolve.sun.co.jp/) を参照してください。
Sun Cluster でサポートされている日本語ロケールは ja (EUC) ロケールのみです。 ja_JP.PCK や ja_JP.UTF-8 ロケールはサポートされていません。日本語版では、 ユーザーインターフェース、オンラインマニュアルページ、および製品マニュアルが 日本語化されています。
この節では、Sun Cluster Manager (SCM) を使用する方法について説明します。
SCM は、多数ある Sun Cluster のコマンド行監視機能を 1 つのインタフェースで提供します。SCM は 2 つの部分、SCM サーバーソフトウェアと SCM GUI (グラフィカルユーザーインタフェース) から構成されます。SCM サーバーは各クラスタノード上で動作します。SCM GUI は JDKTM (Java Development Kit) 1.1 準拠ブラウザ (HotJavaTM など) で動作します。HotJava ブラウザは任意のマシン (クラスタノードを含む) 上で動作できます。SCM GUI は、次の情報について報告します。
SCM 監視アラーム
各クラスタノード上の syslog メッセージ
クラスタのリソース (並列データサービス、論理ホスト、登録されている HA サービス、クラスタノード、ボリュームマネージャの種類などを含む)
SCM についての詳細は、パッチ 107388-01 の README を参照してください。
次の手順では、システム構成ごとに、HotJava ブラウザで SCM を実行するために必要な作業について説明します。
Solaris 2.6 または Solaris 7 のオペレーティング環境に付属の HotJava ブラウザを使用する場合は、HotJava ブラウザに関する問題が発生する可能性があります。詳細は、「HotJava ブラウザによる SCM の実行」を参照してください。これ以降のバージョンの HotJava ブラウザを使用する場合は、使用するソフトウェアによって必要となる手順を参照してください。
次のソフトウェアに関して正しいバージョンを使用しているかどうかを確認する必要があります。
HotJava ブラウザを実行するシステム上の JDK パッケージ SUNWjvrt と SUNWjvjit のバージョンが 1.1.6 以降であること
HotJava のバージョンが 1.1.4 以降であること
Solaris 2.6 オペレーティング環境では、JDK 1.1.6 以降と HotJava 1.1.4 以降をインストールしていなければなりません。Solaris 7 オペレーティング環境では、HotJava 1.1.4 以降をインストールしていなければなりません。
どのように環境を構成するかを決定する必要があります。
クラスタノードで HotJava ブラウザを実行し、SCM を実行する
この場合、HotJava を実行しているノードに障害が発生したときは、別のノードで HotJava を再起動しなければなりません。
各クラスタノードに Web サーバーをインストールし、SCM を実行する
この場合、Lost Connection ダイアログが表示されたときは、適切なノードの URL を HotJava ブラウザに入力する必要があります。
どちらを選択したかによって、適切な手順を参照してください。
クラスタ内のサーバーのコンソールプロンプトに、次のように入力します。
# java -version java version "1.1.6" |
1.1.6 より前のバージョンが表示された場合は、次の URL の指示に従い、JDK バージョン 1.1.6 以降のソフトウェアをダウンロードしてください。
http://www.sun.com/solaris/java
HotJava ブラウザを実行するマシンの HotJava を実行し、「ヘルプ」メニューから「HotJava について ...」を選択します。
1.1.4 より前のバージョンが表示された場合、あるいは HotJava ブラウザがない場合は、次の URL の指示に従い、HotJava バージョン 1.1.4 以降のソフトウェアをダウンロードしてください。
http://java.sun.com/products/hotjava/index.html
クラスタノードで HotJava ブラウザを実行します。
X Window ワークステーションで上記 HotJava ブラウザを遠隔表示します。
HotJava ブラウザにおいて、アプレットのセキュリティに関するプリファレンスを設定します。
「編集」メニューの「ユーザ設定」から「アプレットのセキュリティ ...」を選択します。
「署名のないアプレットのデフォルト設定」として「中セキュリティ」をクリックします。
SCM でクラスタを監視する準備ができたら、適切な URL を入力します。
file:/opt/SUNWcluster/scmgr/index.html |
リモート表示したワークステーションにおいて、ブラウザを起動したクラスタノード上のファイルやポートなどにアクセスするためのアクセス権をたずねるダイアログボックスが表示されます。「OK」をクリックします。
HotJava がアプレットをダウンロードして実行するまでにはある程度の時間がかかります。この間、状態情報は表示されません。
メニューの移動、機能、参照についての詳細は、オンラインヘルプを参照してください。
クラスタノードに Web サーバーをインストールし、SCM を実行するには、次のようにします。
すべてのクラスタノードに Web サーバーをインストールします。
Sun Cluster HA for Netscape HTTP サービスと HTTP サーバーを SCM 上で実行している場合は、HTTP サーバーが異なるポートと通信するように構成する必要があります。このように構成しないと、2 つの間でポートの衝突が発生します。
Web サーバーの構成手順に従い、クライアントが SCM の index.html ファイルにアクセス可能であることを確認します。
SCM 用のクライアントアプレットは、/opt/SUNWcluster/scmgr ディレクトリの index.html ファイルにあります。たとえば、HTTP サーバーのドキュメントルートディレクトリに移動し、/opt/SUNWcluster/scmgr ディレクトリへのリンクを作成します。
ワークステーションで HotJava ブラウザを起動します。
HotJava ブラウザにおいて、アプレットのセキュリティに関するプリファレンスを設定します。
SCM でクラスタを監視する準備ができたら、適切な URL を入力します。
たとえば、Web サーバーのドキュメントルートディレクトリから /opt/SUNWcluster/scmgr ディレクトリへのリンクを作成している場合は、次の URL を入力します。
http://clusternode/scmgr/index.html |
ブラウザを起動したクラスタノード上のファイルやポートなどにアクセスするためのアクセス権をたずねるダイアログボックスが表示されます。「OK」をクリックします。
HotJava がアプレットをダウンロードして実行するまでには時間がかかる場合があります。この間、状態情報は表示されません。
メニューの移動、機能、参照についての詳細は、オンラインヘルプを参照してください。
SCM には、メニューの移動、機能、および参照についてのオンラインヘルプがあります。
SCM からヘルプウィンドウを表示するには、「ヘルプ」メニューから「ヘルプの内容」を選択します。
あるいは、フォルダの上にあるツールバー上のヘルプアイコン (疑問符のアイコン) をクリックします。
必要であれば、次の URL を入力し、オンラインヘルプを別のブラウザで実行できます。
file:/opt/SUNWcluster/scmgr/help/locale/en/main.howtotopics.html |
たとえば、Web サーバーのドキュメントルートディレクトリから /opt/SUNWcluster/scmgr ディレクトリへのリンクを作成している場合は、次の URL を入力します。
http://clusternode/scmgr/help/locale/en/main.howtotopics.html |
オンラインヘルプを終了するには、その HotJava ブラウザを閉じます。もう一度オンラインヘルプを選択すると、新しいブラウザが開き、ヘルプが読み込まれます。
この節では、Sun Cluster 2.2 の動作に影響する既知の問題について説明します。
4277778 - クラスタコントロールパネル (ccp) のヘルプが日本語で表示されない。
クラスタコントロールパネルで日本語ヘルプは表示できません。 ヘルプを表示したとき文字化けが発生する場合は、以下のパッチをインストールして ください。これによりヘルプは常に英語で表示されます。
Solaris 7
108400-01 SunCluster 2.2: cluster_help patch
108442-02 SunCluster 2.2: cluster_help patch
108444-02 SunCluster 2.2: cluster_help patch
108446-02 SunCluster 2.2: cluster_help patch
Solaris 2.6
108399-01 SunCluster 2.2: cluster_help patch
108441-02 SunCluster 2.2: cluster_help patch
108443-02 SunCluster 2.2: cluster_help patch
108445-02 SunCluster 2.2: cluster_help patch
日本語ヘルプは、Netscape などの別のブラウザから以下にアクセス することで表示できます。
file:/opt/SUNWcluster/helpfiles/ja/sc/home_page
4185966 - ハートビートの損失後に不正なトラップが発生すると、SCI モジュールによりノードに障害が発生します。
4202413 - 大多数のノードが同時に停止すると、クラスタが異常終了します。ボリュームマネージャが CVM または SSVM の場合、この問題を回避するには、クラスタの構成時に定足数デバイスとして単一の直接接続されたディスクを選択します。
4202418 - SCI ハートビート動作検査が失敗すると、ノード障害が発生します。
4213128 - 論理ホストが複数のディスクセットを持っている Solstice DiskSuite 構成では、hactl(1M) ユーティリティがディスクセット名を正しく解析できないため、論理ホストのテイクオーバーが失敗します。このバグは特定の状況での障害監視に影響します。この問題を回避するには、/opt/SUNWcluster/ha/nfs/have_maj_util ファイルを正しいものに変更します。修正された正しいファイルはご購入先から入手できます。
4209264 - scconf -F コマンドは、必ずしも複数のコントローラにわたって管理ファイルシステムをミラー化しません。ボリュームを表示するには、vxprint を使用してください。管理ファイルシステムが複数のコントローラにわたってミラー化されない場合は、そのボリュームを別のコントローラ上で手動でミラー化させます。
4210684 - scinstall(1M) コマンド行オプションと構成メニューを組み合わせて使用すると、クラスタをインストールおよび構成できません。さらに、scinstall(1M) コマンド行オプションを使用してサーバーソフトウェアを削除するとき、クラスタネットワークパッケージは削除されません。これらの作業を行うには、scinstall(1M) コマンドを (オプションなしで) 対話形式で実行してください。
4210191 - Solstice DiskSuite を実行しているノードですべての公衆ネットワーク接続が失敗すると、次のメッセージが表示されクラスタノードは異常終了します。
Failfast timeout - unit "abort_thread" |
4213927 - いくつかの Gigabit Ethernet カードでは、ifconfig(1M) 操作の後で ping(1M) がタイムアウトするため、pnmset(1M) コマンドが異常終了することがあります。この問題を回避するには、/etc/pnmconfig ファイルを手動で構成します。詳細は、pnmconfig(4M) のマニュアルページを参照してください。
4210065 - 論理ホストが複数のディスクセットを持っている Solstice DiskSuite 構成では、Sun Cluster HA for NFS のシェルスクリプト /opt/SUNWcluster/ha/nfs/fdl_enum_probe_disks がエラーを報告します。このため、ディスクセットの障害監視が異常終了します。この問題を回避するには、/opt/SUNWcluster/ha/nfs/fdl_enum_probe_disks ファイルを正しいものに変更します。修正されたファイルはご購入先から入手できます。
4210646 - 文字セットが ASCII 以外の場合、Sun Cluster HA for Oracle 障害モニターは Oracle を正しく再起動しません。この問題は、SAP インストール時に Oracle をインストールするときも同じです。この問題を修正するには、次のリンクを確立し、Oracle が起動時に障害モニターの ORA_NLS33 環境変数で指定される NLS データファイルを見つけられるようにします。このリンクは、すべてのクラスタノード上で作成します。
# ln -s /opt/SUNWcluster /SUNWcluster |
4207695 - SCM において、syslog が空の場合でも、syslog ページの「前へ」ボタンは有効なままです。このときに「前へ」ボタンを使用しても、何も起こりません。
4207726 - SCM は、ネットワーク接続が再確立されるまで、公衆ネットワークの損失を検出できません。
4208089 - SCM は、Sun Cluster HA for Oracle データサービスの現在の状態を正しく表示しません。コマンド haoracle stop で Oracle インスタンスを停止したとき、インスタンスは保守モードに入り、syslog にはメッセージが記録されません。インスタンスが保守モードであるとき、インスタンスは Sun Cluster によって監視されません。SCM はこの状態を unknown であると解釈します。
4211950 - 論理ホストが保守モードに入ると、SCM は、ノードが waiting to be given up であると表示します。画面を手動で再表示すると、正しい状態を表示できます。
4212030 - NFS サービスが無効のとき、いくつかの論理ホスト上の NFS サービスが OK であると表示されることがあります。
4212623 - クラスタノードがクラスタを切り離すと、私設ネットワークと公衆ネットワークは正しい状態を反映しません。このため、この状況表示は無視してください。
4212691 - 論理ホストを所有するすべてのノードがクラスタの一部ではない場合があります。この場合は、論理ホストも休止しています。SCM はこのような論理ホストを使用可能であると表示します。
次の問題は、Sun Cluster 2.2 に適用されます。
Solaris 2.6 または Solaris 7 のオペレーティング環境に付属の HotJava ブラウザを使用して SCM を実行する場合は、次のような問題が発生する可能性があります。
メニューの使用 - たとえば、メニューを選択した後に、メニュー選択がブラウザに表示されたままになることがあります。
スワップ領域の使用 - HotJava ブラウザで SCM を実行する場合は、少なくとも 40M バイトの空きスワップ領域が必要です。スワップ領域が少なくなってきた場合は、HotJava ブラウザを再起動してください。
オンラインヘルプにアクセスできない - 現在のバージョンの HotJava をクラスタノード上で実行し、遠隔表示する場合は、オンラインヘルプの画面表示が動かなくなることがあります。
scinstall(1M) コマンドまたは scconf(1M) コマンドで各論理ホストを構成した後は、scconf clustername -l コマンドを使用し、論理ホストのタイムアウト値を設定する必要があります。タイムアウト値はサイトによって異なります。つまり、論理ホスト、スピンドル、ファイルシステムの数に密接に関連します。
詳細は、scconf(1M) のマニュアルページを参照してください。タイムアウト値を設定する手順については、『Sun Cluster 2.2 のシステム管理』を参照してください。
ルートディスクをカプセル化して SSVM を実行している場合、Sun Cluster 2.2 をインストールする前に、ルートディスクのカプセル化を解除しなければなりません。そして、Sun Cluster 2.2 をインストールした後に、ルートディスクをカプセル化し直します。メジャー番号を変更する前にも、ルートディスクのカプセル化を解除しなければなりません。
ルートディスクをカプセル化およびカプセル化解除する手順については、SSVM のマニュアルを参照してください。
クライアントソフトウェアのインストール時、SUNWcsnmp パッケージがインストールされ、Sun Cluster の SNMP (Simple Network Management Protocol) サポートが提供されます。Sun Cluster SNMP が使用するデフォルトのポートは、Solaris SNMP が使用するデフォルトのポート番号と同じで、両方ともポート 161 を使用します。SUNWcsnmp パッケージをインストールした後は、Sun Cluster SNMP のポート番号を変更しなければなりません。ポート番号を変更する手順については、『Sun Cluster 2.2 のシステム管理』を参照してください。
INFORMIX_ESQL Embedded Language Runtime Facility 製品は、Sun Cluster サーバー上の /var/opt/informix ディレクトリにインストールしなければなりません。これは、Informix サーバーのバイナリが物理ホストにインストールされている場合でも必須です。
Lotus Domino サーバーは、HTTP、POP3、IMAP、NNTP、または LDAP サーバーとして設定できます。Lotus Domino は上記すべての種類のサーバータスクを起動します。しかし、Netscape メッセージサーバーのインスタンスは、Lotus Domino がインストールされているノードによって潜在的にマスターされる論理ホストに設定してはなりません。
1 つのクラスタ内では、Lotus Domino サーバーが使用するポート番号と同じポート番号で Netscape サービスを構成してはなりません。次に、Lotus Domino サーバーがデフォルトで使用するポート番号を示します。
HTTP |
Port 80 |
POP3 |
Port 110 |
IMAP |
Port 143 |
LDAP |
Port 389 |
NNTP |
Port 119 |
論理ホストのファイルシステムがビジーの間にフェイルオーバーまたはスイッチオーバーが発生した場合、論理ホストは部分的にフェイルオーバーします。つまり、いくつかのディスクグループは元の対象である物理ホスト上に残ります。論理ホストのファイルシステムがビジーの場合は、スイッチオーバーしないようにしてください。また、NFS ロックとローカルロックの両方が存在するときはファイルロックが正しく動作しないため、ホストのファイルシステムにはローカルにアクセスしないでください。
Sun Enterprise 10000 上の SSP (システムサービスプロセッサ) に誤ったパスワードを使用すると、システムが予期せぬ動作をし、障害が発生する可能性があります。
ノードを停止するとき、次のエラーメッセージが表示されることがあります。
in.rdiscd[517]: setsockopt (IP_DROP_MEMBERSHIP): Cannot assign requested address |
このエラーの原因は、in.rdiscd デーモンと IP モジュールとのタイミングの問題です。危険はなく、無視しても安全です。
Solaris 7 上で Sun Cluster HA for NFS が動作している場合は、statd デーモンが完全に動作する前に lockd デーモンが強制終了されると、次のエラーメッセージが表示されます。
WARNING: lockd: cannot contact statd (error 4), continuing. |
このエラーメッセージは無視しても安全です。
Sun Cluster HA for Oracle の障害モニターが次のようなエラーを表示した場合は、$ORACLE_HOME ディレクトリのアクセス権が 755 に設定されており、そのディレクトリの所有者がグループ ID dba を持つ Oracle 管理ユーザーであることを確認してください。
Feb 16 17:13:13 ID[SUNWcluster.ha.haoracle_fmon.2520]: hahost1:HA1: DBMS Error: connecting to database: ORA-12546: TNS:permission denied Feb 16 17:12:13 ID[SUNWcluster.ha.haoracle_fmon.2050]: hahost1:HA1: RDBMS error, but HA-RDBMS Oracle will take no action for this error code |
Sun Cluster HA for SAP のパラメータ LOG_DB_WARNING は、Sun Cluster HA for SAP 検査がデータベースに接続できなかった場合に、警告メッセージを表示するかどうかを決定します。LOG_DB_WARNING が -y に設定されており、検査がデータベースに接続できなかった場合は、local0 ファシリティの warning レベルでメッセージが記録されます。デフォルトでは、syslogd(1M) デーモンはこのようなメッセージを /dev/console または /var/adm/messages に表示しません。このような警告を表示するには、local0.warning の優先度のメッセージを表示するように /etc/syslog.conf ファイルを変更します。次に例を示します。
... *.err;kern.notice;auth.notice;local0.warning /dev/console *.err;kern.debug;daemon.notice;mail.crit;local0.warning /var/adm/messages ... |
ファイルを変更した後は、syslogd(1M) を再起動しなければなりません。詳細は、syslog.conf(1M) と syslogd(1M) のマニュアルページを参照してください。
複数のノードを持ち、記憶装置が直接接続されているクラスタにおいて、クラスタの最後のノードに障害が発生した場合、あるいはクラスタを異常に (stopnode 移行を実行せずに) 終了した場合は問題が発生します。このような場合、すべてのノードがクラスタから削除され、クラスタは存在しなくなります。しかし、最後のノードがクラスタを異常な方法で残しているため、ノードロックがかかったままになります。これ以降、scadmin startcluster コマンドでノードロックを獲得しようとしても失敗します。
この問題を回避するには、クラスタを再起動する前に、ノードロックを手動で削除します。
クラスタが完全に異常終了した後、ノードロックを手動で削除し、クラスタを再起動するには、次の手順を使用します。
root として、クラスタ構成を表示します。
# scconf clustername -p |
出力から次の行を見つけます。
clustername Locking TC/SSP, port : A.B.C.D, E |
端末集配信装置 (TC) 上にノードロックがある場合は、次の手順を実行します。そうでない場合は、手順 3 に進みます。
端末集配信装置 tc-name への telnet 接続を起動します。
$ telnet tc-name Trying 192.9.75.51... Connected to tc-name. Escape character is `^]'. |
Return キーを押します。
-cli (コマンド行インタフェース) を指定します。
Enter Annex port name or number: cli |
root としてログインします。
admin コマンドを実行します。
annex# admin |
ポート E をリセットします。
admin : reset E |
telnet 接続を閉じます。
annex# hangup |
手順 4 に進みます。
SSP (システムサービスプロセッサ) 上にノードロックがある場合は、次の手順を実行します。
SSP に接続します。
$ telnet SSP_name |
ユーザー ssp としてログインします。
次のコマンドを使用し、clustername.lock ファイルの情報を表示します。このファイルは /proc/csh.pid へのシンボリックリンクです。
$ ls -l /var/tmp/clustername.lock |
プロセス csh.pid を探します。
$ ps -ef | grep csh.pid |
プロセス csh.pid が ps -ef の出力に存在する場合は、次のコマンドでこのプロセスを強制終了します。
$ kill -9 csh.pid |
clustername.lock ファイルを削除します。
$ rm -f /var/tmp/clustername.lock |
SSP からログアウトします。
クラスタを再起動します。
$ scadmin startcluster |
この節では、Sun Cluster 2.2 より後に変更または廃止される Sun Cluster の機能について説明します。
次のコマンドは、Sun Cluster 2.2 より後に変更または廃止される可能性があります。
オプションまたはインタフェースが変更されるコマンド
scconf(1M)
scinstall(1M)
scswitch(1M)
名前が変更されるコマンド
hastat(1M) は scstat(1M) に変更されます。
haswitch(1M) は scswitch(1M) に変更されます。
削除されるコマンド
ccdadm(1M)
ccdctl(1M)
ccdinstall(1M)
cconsole(1)
ccp(1)
chosts(1)
confccdssa(1M)
cports(1)
crlogin(1)
ctelnet(1)
db_check(1M)
finddevices(1M)
get_ci_status(1M)
get_node_status(1M)
ha_fault_mon_config(1M)
hadsconfig(1M)
hainformix(1M)
hainformix_support(4)
haoracle(1M)
haoracle_support(4)
hareg(1M)
hasybase(1M)
hasybase_support(4)
scadmin(1M)
sm_config(1M)
sma_configd(1M)
この節では、Sun Cluster 2.2 より後に変更または廃止される Sun Cluster 2.2 のデータサービス API について説明します。
次の API コマンドとコマンドオプションは、将来の Sun Cluster リリースで変更される可能性があります。
ha_get_calls(3HA) 関数から戻される構造体のいくつかのフィールドは NULL になる予定です。
ha_get_calls は、ha_physical_host_t 構造体に含まれる ha_network_host_t 構造体で names_on_subnets を戻します。
typedef struct ha_network_host { char *node_name; char **names_on_subnets ; } ha_network_host_t ; |
names_on_subnets フィールドは NULL になる予定です。
ha_get_calls は ha_logical_host_t 構造体を戻します。
typedef struct ha_logical_host { ha_network_host_t neth; ha_physical_host_t **physical_hosts char *pathprefix` char *vfstab_file } ha_logical_host_t; |
vfstab_file フィールドは NULL になる予定です。
ha_get_calls(3HA) の ha_getonoff(1M) 関数は常に TRUE を戻すように変更される予定です。
ha_getonoff(han_handle_t handle, char *service_name, boolean_t *ison); |
次のコマンドとコマンドオプションは、将来の Sun Cluster リリースで廃止される可能性があります。
haget(1M) の names_on_subnets への照会
# haget -f names_on_subnets -h physical_hostname |
haget(1M) の vfstab_file への照会
# haget -f vfstab_file -h logical_hostname |
hactl(1M) の -r 再構成オプション
hactl -r ... |
hareg(1M) のマニュアルページに説明されているクラスタ再構成プロセスは、将来のリリースで変更される可能性があります。再構成プロセスは、ロックステッププロセスにはなりません。これからは、ロックステップで発生するステップに依存する利用可能性の高いデータサービスを開発しないようにしてください。
Sun Cluster の実装により内部的に使用されるプログラムが多数あります。Sun Cluster 2.2 リリースにおいては、マニュアルページを持たないプログラムがこのカテゴリに入ります。このようなプログラムは、製品の将来のリリースにおいては現在のような形では存在しません。たとえば、clustm、scccd、ccdmatch などが該当します。