ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris Cluster 3.3 5/11 リリースノート Oracle Solaris Cluster (日本語) |
Oracle Solaris Cluster 3.3 5/11 リリースノート
Oracle Solaris Cluster 3.3 5/11 ソフトウェアの最新情報
クラスタ検証ツールとしての cluster check コマンドの機能拡張
NAS デバイスとしての Sun ZFS Storage Appliance に対するフェンシングのサポート
クラスタファイルシステムとしての Oracle ACFS のサポート
ZFS を使用した HAStoragePlus によるゾーンクラスタのループバックマウントのサポート
Oracle 11g リリース 2 の HA-Oracle および Oracle RAC に対する構成ウィザードのサポート
SWIFTAlliance Access 7.0 および SWIFTAlliance Gateway 7.0 のサポート
Veritas Volume Manager のクラスタ機能のサポートの廃止
rename(2) を呼び出して Oracle ACFS ディレクトリの名前を親ディレクトリと同じ名前に変更するとノードパニックが発生する (11828617)
パニック (uadmin 5 1) 障害の注入後にノードで Oracle Clusterware を起動できない (11828322)
Oracle ACFS によるクラスタ化された fcntl に対するサポートが必要 (11814449)
非大域ゾーンに Oracle ASM が存在する場合に Oracle ACFS を起動できない (11707611)
Oracle Solaris Cluster プロジェクトの共有ワークフローで r/w プロジェクトの下にあるすべての共有を返す必要がある (7041969)
startsrv が実行されていないと SAP startsap でアプリケーションインスタンスを起動できない (7028069)
ファイバチャネルまたは iSCSI を介して Sun ZFS Storage Appliance を定足数デバイスとして使用する場合の問題点 (6966970)
ZFS ルートでの Live Upgrade の実行後、クラスタゾーンが起動しなくなる (6955669)
Sun StorageTek Availability Suite
Failover_mode が SOFT に設定されている場合、公開インタフェースで障害が発生したときにリソースグループがフェイルオーバーされない (7038727)
ゾーンクラスタでリソースタイプ SUNW.scalable_acfs_proxy を登録できない (7023590)
再起動時に Oracle の SPARC T3-4 が失敗する (6993321)
ゾーンクラスタをホストする最後のノードを削除してもクラスタ構成からゾーンクラスタが削除されない (6969605)
/dev/rmt が指定されていないことが原因で、ポリシーが pathcount のときに誤った予約情報が使用される (6920996)
値を prefer3 に変更したときに global_fencing プロパティーコードが壊れる (6879360)
ハイブリッド I/O を持つ LDoms で自動検出が機能しない (6870171)
複製されたデバイスグループのステータスが原因で切り替えが失敗する場合、EMC SRDF および Hitachi TrueCopy で切り替えが拒否される (6798901)
スケーラブルなリソースを LB_STICKY_WILD 負荷分散ポリシーを使用して構成すると clsetup が失敗する (6773401)
クラスタ構成からノードを削除すると、ノードパニックが発生することがある (6735924)
クラスタノードで Solaris Security Toolkit が構成されている場合、scstat -i を実行すると RPC バインド障害エラーが発生する (6727594)
DID の結合時にさらなる検証確認が必要 (6605101)
Solaris Cluster Manager が 16 ノードのクラスタで表示されない (6594485)
ゾーンクラスタの再起動後、RGM の再設定を行わずにリソースグループを作成すると、RGM の内部の状態に矛盾が生じる (7041222)
スクリプトがないために Apache Tomcat が起動しない (7022690)
ディスパッチャーを強制終了したあとに同じノードで SAP Web Application Server のプライマリインスタンスをオンラインにできない (7018400)
クラスタファイルシステムによりスケーラブルなリソースグループ内で構成された HAStoragePlus リソースが「起動中」状態のままになる (6960386)
データベースリスナーに到達できない場合にゲートウェイの検証でピンポン現象が発生する (6927071)
スケーラブルなアプリケーションがゾーンクラスタ間で切り離されない (6911363)
clnas add コマンドまたは clnas remove コマンドを複数のノードで同時に実行すると問題が発生する可能性がある (6791618)
clresourcegroup add-node により HAStoragePlus リソースが Faulted 状態になる (6547896)
PMF 以外のサービスの停止メソッドで GDS から誤った終了状態が返される (6831988)
Ops Center エージェントの JavaDB データベースに対応する既存のパッケージが installer で削除される (6956479)
関係がない IPMP の停止が原因で ssm_start が失敗する (6938555)
アップグレード後、ip-type=exclusive であるゾーンが、SUNW.LogicalHostname リソースをホストできない (6702621)
Oracle Solaris Cluster 3.3 5/11 コアパッチの適用
Oracle Solaris Cluster 3.3 5/11 コアパッチを適用する方法
Oracle Solaris Cluster 3.3 5/11 コアパッチの削除
Oracle Solaris Cluster 3.3 5/11 コアパッチを削除する方法
Sun StorageTek 2530 アレイのクラスタサポート用パッチ
次に示す既知の問題とバグは、Oracle Solaris Cluster 3.3 5/11 リリースの実行に影響を与えます。バグおよび問題は次のカテゴリに分類しています。
問題の概要: HA for Oracle などのフェイルオーバーデータサービスの構成で、NAS ストレージのアクセス障害を検証および検出するために ScalMountpoint リソースを構成している場合、ケーブルの切断などによってネットワークインタフェースが失われると、モニターの検証がハングします。Failover_mode プロパティーが SOFT に設定されている場合、ステータスが stop-failed になり、リソースがフェイルオーバーされません。関連するエラーメッセージは次のとおりです。
SC[SUNW.ScalMountPoint:3,scalmnt-rg,scal-oradata-11g-rs, /usr/cluster/lib/rgm/rt/scal_mountpoint/scal_mountpoint_probe]: Probing thread for mountpoint /oradata/11g is hanging for timeout period 300 seconds
回避方法: リソースの Failover_mode プロパティーを HARD に変更します。
# clresource set -p Failover_mode=HARD ora-server-rs # clresource show -v ora-server-rs | grep Failover_mode Failover_mode: HARD
問題の概要: 現在の実装では、RTR ファイルは /usr/cluster/lib/rgm/rtreg に実在する必要があります。シンボリックファイルとして設定することはできません。
回避方法: グローバルクラスタのいずれかのノードで、次のコマンドをスーパーユーザーとして実行します。
# cp /opt/SUNWscor/oracle_asm/etc/SUNW.scalable_acfs_proxy /usr/cluster/lib/rgm/rtreg/ # clrt register -Z zoneclustername SUNW.scalable_acfs_proxy # rm /usr/cluster/lib/rgm/rtreg/SUNW.scalable_acfs_proxy
問題の概要: 再起動時に、4 つのプロセッサで構成される Oracle の SPARC T3-4 サーバーから Oracle Solaris Cluster フレームワークへの接続が失敗します。次のようなエラーメッセージが表示されます。
Sep 20 15:18:53 svc.startd [8]: svc:/system/pools:default: Method or service exit timed out. Killing contract 29. Sep 20 15:18:53 svc.startd [8]: svc:/system/pools:default: Method "/lib/svc/method/ svc-pools start" failed due to signal KILL. … Sep 20 15:20:55 solta svc.startd [8]: system/pools:default failed: transitioned to maintenance (see 'svcs -xv' for details) … Sep 20 15:22:12 solta INITGCHB: Given up waiting for rgmd. … Sep 20 15:23:12 solta Cluster.GCHB_resd: GCHB system error: scha_cluster_open failed with 18 Sep 20 15:23:12 solta : No such process
回避方法: svccfg コマンドを使用して、サービスのタイムアウトを 300 秒に増やします。非クラスタモードで起動し、次のコマンドを実行します。
# svccfg -s svc:/system/pools setprop start/timeout_seconds = 300 # svcadm refresh svc:/system/pools
これらのコマンドを実行したら、クラスタモードで起動します。
問題の概要: グローバルクラスタ内のゾーンクラスタをホストする最後のグローバルクラスタノードを削除したときに、クラスタ構成からゾーンクラスタが削除されません。
回避方法: clnode remove -F コマンドを実行してグローバルクラスタノードを削除する前に、clzonecluster コマンドを使用してゾーンクラスタを削除します。
問題の概要: 新しいストレージデバイスをクラスタに追加し、3 つ以上の DID パスで構成した場合、cldevice populate コマンドを実行するノードがその PGR キーをデバイスに登録できないことがあります。
回避方法: すべてのクラスタノードで cldevice populate コマンドを実行するか、同じノードから cldevice populate コマンドを 2 回実行します。
問題の概要: Oracle Solaris Cluster は、ユーザーがフェンシングプロパティーを prefer3 に設定できるようにする前に、ストレージデバイスが SCSI-3 PGR を完全にサポートすることを確認します。この確認は、失敗するはずのときに成功することがあります。
回避方法: フェンシング設定を prefer3 に変更する前に、ストレージデバイスが Oracle Solaris Cluster によって SCSI-3 PGR で使用するように認証されていることを確認します。
問題の概要: ハイブリッド I/O を持つ LDoms でのクラスタの構成中に、自動検出でクラスタインターコネクトのパスが報告されません。
回避方法: 対話型の scinstall ユーティリティーを実行するときに、すべてのノードを単一操作で構成するのではなく、スポンサーノードと追加ノードを別の操作で構成します。ユーティリティーで、「Do you want to use autodiscovery?」というプロンプトが表示されたら、「no」と応答します。次に、scinstall ユーティリティーによって提示されたリストからトランスポートアダプタを選択します。
問題の概要: Hitachi TrueCopy デバイスグループのレプリカペアの状態が COPY であるか、EMC SRDF デバイスグループのレプリカペアが分割されている場合、デバイスグループをほかのノードに切り替えようとすると失敗します。さらに、レプリカペアがペア状態に戻るまでは、デバイスグループは、元のノード上でオンラインに戻ることができません。
回避方法: 関連する Oracle Solaris Cluster グローバルデバイスグループをほかのクラスタノードに切り替える前に、TrueCopy のレプリカが COPY 状態でないこと、または SRDF のレプリカが分割されていないことを確認します。
問題の概要: clsetup ユーティリティーでは、リソースの負荷分散ポリシーを LB_STICKY_WILD に設定することはできません。代わりに、ポリシーは LB_WILD に設定されます。
回避方法: リソースを構成したあとに、clresource create コマンドを使用して、負荷分散ポリシーを LB_STICKY_WILD に変更します。
問題の概要: クラスタ構成を 3 ノードクラスタから 2 ノードクラスタに変更した場合に、残りのノードの 1 つがクラスタを離れるか、クラスタ構成から削除されると、クラスタが完全に失われることがあります。
回避方法: 3 ノードクラスタ構成からノードを削除した直後に、残りのクラスタノードの 1 つで cldevice clear コマンドを実行します。
問題の概要: クラスタノードで Solaris Security Toolkit が構成されている場合、scstat -i コマンドを実行すると RPC バインド障害エラーが発生します。エラーメッセージは次のようになります。
scrconf: RPC: Rpcbind failure - RPC: Authentication error Other Sun Cluster commands that use RPC, such as clsnmpuser, might also fail.
回避方法: クラスタのプライベートなホスト名、またはそれに関連する IP アドレスを /etc/hosts.allow ファイルに追加します。
問題の概要: scdidadm コマンドおよび cldevice コマンドでは、単一の DID デバイスに結合しようとしている複製された SRDF デバイスが、実際に互いの複製であるかどうか、指定された複製グループに属しているかどうかを検証することができません。
回避方法: SRDF で使用する DID デバイスの結合は慎重に行います。指定した DID デバイスインスタンスが互いの複製であり、指定した複製グループに属していることを確認してください。
問題の概要: 16 ノードのクラスタでは、Oracle Solaris Cluster Manager の GUI を使用できません。
回避方法: clsetup ユーティリティーまたは Oracle Solaris Cluster の保守コマンドを代わりに使用します。
問題の概要: ゾーンクラスタを再起動した直後にリソースグループを作成、編集、または削除すると、Resource Group Manager (RGM) が矛盾した状態になり、そのリソースグループに対する以降の操作が失敗します。これにより、最悪の場合、グローバルクラスタのノードがパニックになり再起動されることがあります。
この問題は、ゾーンクラスタのすべてのノードを同時に再起動した場合に発生する可能性があります。他のノードは稼動させたまま、一部のノードだけを再起動した場合には発生しません。また、物理クラスタ全体を再起動する場合も、ゾーンクラスタが稼動状態になった直後にリソースグループの更新を実行すると、この問題が発生する可能性があります。
このようなエラーが発生する可能性があるコマンドには、次のものがあります。
clresource create
clresource delete
clresource set
clresourcegroup create
clresourcegroup delete
clresourcegroup set
回避方法: この問題を回避するには、ゾーンクラスタの再起動後、1 分ほど待ってゾーンクラスタの状態が安定してから、上記のコマンドを実行するようにします。
物理クラスタのすべてのノードを再起動する場合は、ゾーンクラスタのすべてのノードがクラスタに結合されたことを示すコンソールメッセージが表示されてから、上記のコマンドを実行するようにします。コンソールには次のようなメッセージが表示されます。
May 5 17:30:49 phys-schost-4 cl_runtime: NOTICE: Membership : Node 'zc-host-2' (node id 2) of cluster 'schost' joined.
他のノードを稼動させた状態で一部のノードだけを再起動する場合は、特に待つ必要はありません。
問題の概要: Oracle Solaris Cluster HA for Apache Tomcat 用のリソースグループとリソースをインストールおよび作成したあと、フェイルオーバーゾーン上で HA for Apache Tomcat が構成されていると、サービスを起動できません。
回避方法: Oracle のサポート担当者に連絡して必要なスクリプトを入手します。
問題の概要: SAP カーネル 7.11 で実行されているダイアログインスタンスのディスパッチャーを強制終了した場合、同じノードで SAP Web Application Server エージェントのダイアログインスタンスを再起動することはできません。2 回試行されたあと、フェイルオーバーされて別のノードで起動されます。根本原因は、SAP カーネル 7.11 で cleanipc コマンドを使用する場合、cleanipc を実行する前に LD_LIBRARY_PATH を設定する必要があることにあります。
回避方法: LD_LIBRARY_PATH を設定して cleanipc を実行するコードを、webas リソースの Webas_Startup_Script に挿入します。たとえば、SAP SID が FIT で、インスタンスが 03 の場合、Webas_Startup_script プロパティーで webas リソースに登録された起動スクリプトに挿入するコードは次のようになります。
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/sap/FIT/SYS/exe/run export LD_LIBRARY_PATH /usr/sap/FIT/SYS/exe/run/cleanipc 03 remove
問題の概要: クラスタファイルシステムの /etc/vfstab ファイルエントリの mount-at-boot 値が no で、クラスタファイルシステムがスケーラブルなリソースグループに属する SUNW.HAStoragePlus リソースで構成されている場合、SUNW.HAStoragePlus リソースはオンラインになりません。リソースは、prenet_start_method がタイムアウトになるまで、起動中の状態のままになります。
回避方法: クラスタファイルシステムに対する /etc/vfstab ファイルのエントリで、mount-at-boot 値を yes に設定します。
問題の概要: Siebel 8.1.1 では、ゲートウェイサーバーはデータベースに依存します。データベースリスナーをホストするマシンに到達できない場合、ゲートウェイの検証によって、リソースグループのピンポン現象が発生し、指定した時間が経過するまで続きます。
回避方法: この問題は、データベースリスナーをゲートウェイと同じ場所に配置すると軽減されます。また、クラスタの制御の範囲外でデータベースを実行すれば、データベースリスナーをホストするマシンが確実に起動されて稼動状態になります。
問題の概要: 異なるゾーンクラスタ内で実行されるように構成されたスケーラブルなアプリケーションが INADDR_ANY にバインドし、同じポートを使用する場合、異なるゾーンクラスタ内で実行されるこれらのアプリケーションのインスタンスをスケーラブルなサービスで識別することはできません。
回避方法: スケーラブルなアプリケーションは、ローカル IP アドレスとして INADDR_ANY にバインドするように構成しないでください。スケーラブルなアプリケーションは、別のスケーラブルなアプリケーションと競合しないポートにバインドするように構成します。
NAS デバイスを追加または削除するときに、clnas add コマンドまたは clnas remove コマンドを複数のノードで同時に実行すると、NAS 構成ファイルが破損する可能性があります。
回避方法: clnas add コマンドまたは clnas remove コマンドを実行するときは、一度に 1 つのノードで実行します。
問題の概要: native ブランドの非大域ゾーンが、ZFS プールが構成された HAStoragePlus リソースを含むリソースグループのノードリストに追加されると、HAStoragePlus リソースが Faulted 状態になることがあります。この問題が発生するのは、native ゾーンをホストする物理ノードがリソースグループのノードリストに含まれている場合のみです。
回避方法: 障害が発生した HAStoragePlus リソースを含むリソースグループを再起動します。
# clresourcegroup restart faulted-resourcegroup
問題の概要: 汎用データサービス (GDS) の停止スクリプトでは、停止メソッドを強制的に失敗させることはできません。停止スクリプトが 0 以外で終了した場合、GDS 停止メソッドは、リソースデーモンを強制終了しようとします。強制終了に成功すると、停止スクリプトが失敗した場合でも、停止メソッドは正常に終了します。その結果、停止スクリプトのプログラムで、停止メソッドを強制的に失敗させることができなくなります。
回避方法: GDS 停止スクリプトで clresourcegroup quiesce -k rgname コマンドを実行します。rgname には、GDS リソースを含むリソースグループの名前を指定します。-k オプションを指定することで、現在実行中の GDS 停止メソッドが rgmd デーモンによって強制終了されます。これにより、GDS リソースが STOP_FAILED 状態になり、リソースグループが ERROR_STOP_FAILED 状態になります。
この回避方法には次の制限があります。
clresourcegroup quiesce コマンドでは、リソースの Failover_mode が HARD に設定されている場合でも、ノードが再起動されません。再起動動作が必要な場合は、GDS 停止スクリプトで Failover_mode プロパティーを照会し、プロパティーが HARD であれば、停止スクリプトで直接、ノードまたはそれが実行されている非大域ゾーンを再起動することができます。
この回避方法は、同時に 1 つのノードでしか停止することがない、フェイルオーバーリソースグループに最適な方法です。マルチマスター構成のリソースグループの場合は、GDS リソースが同時に複数のノードで停止することがあります。その場合、clresourcegroup quiesce -k コマンドを実行すると、ローカルノードで実行されている停止メソッドだけでなく、各ノードで実行されているすべての停止メソッドが強制終了されます。
問題の概要: Oracle Solaris 10 の Oracle Enterprise Manager Ops Center エージェントでは、構成データベースに JavaDB ソフトウェアを使用します。Oracle Solaris Cluster ソフトウェアを installer ユーティリティーを使用してインストールする際、JavaDB ソフトウェアパッケージが再インストールされるため、エージェントの既存の構成データベースは削除されます。
パッケージが削除されると、Ops Center エージェントから次のエラーメッセージが報告されます。
java.sql.SQLException: Database '/var/opt/sun/xvm/agentdb' not found. at org.apache.derby.impl.jdbc.SQLExceptionFactory40.getSQLException(Unknown Source) at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source) at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source)
エージェントは壊れた状態になるため、構成を解除するか、または構成し直す必要があります。
回避方法: すべてのクラスタノードに、次に示す追加の JavaDB パッケージを Oracle Solaris Cluster メディアから手動でインストールします。
SUNWjavadb-demo
SUNWjavadb-javadoc
SUNWjavadb-docs
SUNWjavadb-client
installer ユーティリティーを実行しても、既存の JavaDB データベースパッケージは削除されません。
問題の概要: 簡体字中国語および繁体字中国語のロケールで installer ユーティリティーを使用して Oracle Solaris Cluster ソフトウェアをインストールした場合、システム要件を確認するソフトウェアにより、スワップ空間が 0M バイトであるという誤った報告がなされます。
回避方法: このレポート情報を無視します。これらのロケールでは、次のコマンドを実行して正しいスワップ空間を判断できます。
# df -h | grep swap
問題の概要: 複数所有者の Solaris ボリュームマネージャーディスクセットが vucmm フレームワークで構成されている場合、cldevicegroup status コマンドでは、ディスクセットの実際のステータスにかかわらず常に offline と表示されます。
回避方法: 複数所有者ディスクセットのステータスを確認するときは、metastat -s diskset コマンドを使用します。
問題の概要: 共有アドレスリソースによって使用されないサブセット上の IPMP グループに障害が発生したために、SUNW.SharedAddress リソースに依存するスケーラブルなリソースがオンラインになりません。クラスタノードの syslog に次のようなメッセージが出力されます。
Mar 22 12:37:51 schost1 SC SUNW.gds:5,Traffic_voip373,Scal_service_voip373,SSM_START: ID 639855 daemon.error IPMP group sc_ipmp1 has status DOWN. Assuming this node cannot respond to client requests.
回避方法: 障害が発生した IPMP グループを修復し、障害が発生したスケーラブルなリソースを再起動します。
問題の概要: この問題は、リソースタイプ SUNW.LogicalHostname がバージョン 2 で登録されている場合に発生します (バージョンを表示するには clresourcetype list コマンドを使用します)。アップグレード後、ip-type=exclusive で非大域ゾーンに論理ホスト名リソースを作成できますが、たとえば telnet や rsh などの論理ホスト名へのネットワークアクセスは動作しません。
回避方法: 次の手順を実行します。
論理ホスト名リソースをホストしている ip-type=exclusive が設定された非大域ゾーンをノードリストに含むリソースグループをすべて削除します。
SUNW.LogicalHostname リソースタイプをバージョン 3 以上にアップグレードします。
# clresourcetype register SUNW.LogicalHostname:3