B ログ・メッセージのリファレンス
この付録の内容は次のとおりです。
- TCMPのログ・メッセージ
TCMPに関連するログ・メッセージ - 構成のログ・メッセージ
構成に関連するログ・メッセージ - パーティション・キャッシュ・サービスのログ・メッセージ
パーティション・キャッシュ・サービスに関連するログ・メッセージ - サービス・スレッド・プールのログ・メッセージ
サービス・スレッド・プールに関連するログ・メッセージ - TMBログ・メッセージ
TMBに関連するログ・メッセージ。 - クラスタ・サービス例外
クラスタ・サービスによってスローされる例外。 - ガーディアン・サービス・ログ・メッセージ
ガーディアン・サービスに関連するログ・メッセージ。 - 永続性ログ・メッセージ
永続性に関連するログ・メッセージ。
TCMPのログ・メッセージ
- Experienced a %n1 ms communication delay (probable remote GC) with Member %s
-
%n1 - 通信遅延の待機時間(ミリ秒)、%s - 全メンバー情報。重大度: 2: 警告、5: デバッグ・レベル5、6: デバッグ・レベル6(遅延の長さによる)。
- Failed to satisfy the variance: allowed=%n1 actual=%n2
-
%n1 - 許容最大待機時間(ミリ秒)、%n2 - 実際の待機時間(ミリ秒)。重大要度: 3: 情報、5: デバッグ・レベル5(メッセージの発生頻度による)。
- This Member(%s1) joined cluster "%s2" with senior Member(%s3)
-
%s1 - このノードの全メンバー情報、%s2 - クラスタ名、%s3 - クラスタの上位ノードの全メンバー情報。重大度: 3: 情報。
- Member(%s) joined Cluster with senior member %n
-
%s - このノードが属するクラスタに参加した新しいノードの全メンバー情報、%n - クラスタの上位ノードのノードID。重大度: 5: デバッグ・レベル5。
- クラスタ%sのその他のメンバーは、矛盾したネットワーク構成ですでに実行されており、%nへの参加が中止されます。
-
%sは、参加を試みたクラスタの名前です。%nは、クラスタの情報です。重大度: 5: デバッグ・レベル5。
- Member(%s) left Cluster with senior member %n
-
%s - クラスタから離脱したノードの全メンバー情報、%n - クラスタの上位ノードのノードID。重大度: 5: デバッグ・レベル5。
- MemberLeft notification for Member %n received from Member(%s)
-
%n - 離脱したノードのノードID、%s - クラスタから離脱したノードの全メンバー情報。重大度: 5: デバッグ・レベル5。
- Received cluster heartbeat from the senior %n that does not contain this %s ; stopping cluster service
-
%n - 上位サービス・メンバーID、%s - クラスタ・サービス・メンバーのID。重大度: 1: エラー。
- Service %s joined the cluster with senior service member %n
-
%s - サービス名、%n - 上位サービス・メンバーのID。重大度: 5: デバッグ・レベル5。
- This node appears to have partially lost the connectivity: it receives responses from MemberSet(%s1) which communicate with Member(%s2), but is not responding directly to this member; that could mean that either requests are not coming out or responses are not coming in; stopping cluster service
-
%s1 - %s2に示されるメンバーと通信できるメンバー・セット、%s2 - %s1に示されるメンバー・セットと通信できるメンバー。重大度: 1: エラー。
- validatePolls: This senior encountered an overdue poll, indicating a dead member, a significant network issue or an Operating System threading library bug (e.g. Linux NPTL): Poll
-
重大度: 2: 警告
- Received panic from junior member %s1 caused by %s2
-
%s1 - 危機的状況を送信したクラスタ・メンバー、%s2 - 上位メンバーであると主張するメンバー。重大度2 - 警告
- Received panic from senior Member(%s1) caused by Member(%s2)
-
%s1 - このノードで知られているクラスタ上位メンバー、%s2 - 上位メンバーであると主張するメンバー。重大度: 1: エラー。
- Member %n1 joined Service %s with senior member %n2
-
%n1 - サービスに参加するCoherenceノードのID、%s - サービス名、%n2 - サービスの上位ノード。重大度: 5: デバッグ・レベル5。
- Member %n1 left Service %s with senior member %n2
-
%n1 - サービスに参加するCoherenceノードのID、%s - サービス名、%n2 - サービスの上位ノード。重大度: 5: デバッグ・レベル5。
- Service %s: received ServiceConfigSync containing %n entries
-
%s - サービス名、%n - サービス構成マップ内のエントリ数。重大度: 5: デバッグ・レベル5。
- TcpRing: connecting to member %n using TcpSocket{%s}
-
%s - 他のノードへのTcpRingコネクタとして機能するTcpSocketに関する全情報、%n - このノードが接続されるノードのID。重大度: 5: デバッグ・レベル5。
- Rejecting connection to member %n using TcpSocket{%s}
-
%n - このノードへの接続を試行するノードのID、%s - 他のノードへのTcpRingコネクタとして機能するTcpSocketに関する全情報。重大度: 4: デバッグ・レベル4。
- Timeout while delivering a packet; requesting the departure confirmation for Member(%s1) by MemberSet(%s2)
-
%s1 - このノードが通信に失敗したノードの全メンバー情報、%s2 - メンバーが離脱した疑いについて確認するよう要求された証人ノードに関する全情報。重大度: 2: 警告
- This node appears to have become disconnected from the rest of the cluster containing %n nodes All departure confirmation requests went unanswered Stopping cluster service.
-
%n - このノードがメンバーとして属していたクラスタ内の他のノードの数。重大度: 1: エラー。
- A potential communication problem has been detected A packet has failed to be delivered (or acknowledged) after %n1 seconds, although other packets were acknowledged by the same cluster member (Member(%s1)) to this member (Member(%s2)) as recently as %n2 seconds ago Possible causes include network failure, poor thread scheduling (see FAQ if running on Windows), an extremely overloaded server, a server that is attempting to run its processes using swap space, and unreasonably lengthy GC times
-
%n1 - パケットを配信または認識できなかった秒数、%s1 - メッセージに示されたパケットの受信側、%s2 - メッセージに示されたパケットの送信側、%n2 - 前述の2つのメンバー間でパケットが正常に配信されてからの秒数。重大度: 2: 警告
- Node %s1 is not allowed to create a new cluster; WKA list: [%s2]
-
%s1 - クラスタへの参加を試みるノードのアドレス、%s2 - WKAアドレスのリスト。重大度: 1: エラー。
- This member is configured with a compatible but different WKA list then the senior Member(%s) It is strongly recommended to use the same WKA list for all cluster members
-
%s - クラスタの上位ノード。重大度: 2: 警告
- <socket implementation> failed to set receive buffer size to %n1 packets (%n2 bytes); actual size is %n3 packets (%n4 bytes) Consult your OS documentation regarding increasing the maximum socket buffer size Proceeding with the actual value may cause sub-optimal performance
-
%n1 - Coherenceが割当てを試みたバッファに収まるパケットの数、%n2 - Coherenceが割当てを試みたバッファのサイズ、%n3 - 割り当てられた実際のバッファ・サイズに収まるパケットの数、%n4 - 割り当てられたバッファの実際のサイズ。重大度: 2: 警告
- The timeout value configured for IpMonitor pings is shorter than the value of 5 seconds Short ping timeouts may cause an IP address to be wrongly reported as unreachable on some platforms
-
重大度: 2: 警告
- TcpRing has been explicitly disabled, this is not a recommended practice and will result in a minimum death detection time of %n seconds for failed processes
-
%n - パケット・パブリッシャの再送信タイムアウトで指定された秒数(デフォルトは5秒)。重大度: 2: 警告
- IpMonitor has been explicitly disabled, this is not a recommended practice and will result in a minimum death detection time of %n seconds for failed machines or networks
-
%n - パケット・パブリッシャの再送信タイムアウトで指定された秒数(デフォルトは5秒)。重大度: 2: 警告
親トピック: ログ・メッセージのリファレンス
構成のログ・メッセージ
- Loaded operational configuration from resource "%s"
-
%s - オペレーション構成ディスクリプタの完全なリソース・パス(URI)。重大度: 3: 情報。
親トピック: ログ・メッセージのリファレンス
パーティション・キャッシュ・サービスのログ・メッセージ
- Application code running on "%s1" service thread(s) should not call ensureCache as this may result in a deadlock
-
The most common case is a
CacheFactory
call from a customCacheStore
implementation.%s1 - アプリケーション・コードを実行しているサービス
原因: このメッセージは、アプリケーション・コードを実行している同じサービスのキャッシュに対して
ensureCache
操作がコールされたことを示します。このコードは、インターセプタ、エントリ・プロセッサまたはキャッシュ・ストアなどの任意のユーザー・アプリケーション・コードからの場合があります。これは、同じサービスへのコールバックによる潜在的なデッドロックから保護するためです。
- Asking member %n1 for %n2 primary partitions
-
%n1 - このノードがパーティションの転送を依頼したノードのID、%n2 - このノードが取得しようとしているパーティションの数。重大度: 4: デバッグ・レベル4。
- Transferring %n1 out of %n2 primary partitions to member %n3 requesting %n4
-
%n1 - このノードがリクエスト元のノードに転送するプライマリ・パーティションの数、%n2 - このノードが現在所有しているプライマリ・パーティションの合計数、%n3 - 転送先ノードのID、%n4 - リクエスト元ノードが要求するパーティションの数。重大度: 4: デバッグ・レベル4。
- Transferring %n1 out of %n2 partitions to a machine-safe backup 1 at member %n3 (under %n4)
-
%n1 - このノードが別のノードに転送するバックアップ・パーティションの数、%n2 - このノードが現在所有している、消失する危険のある(バックアップがない)パーティションの合計数、%n3 - 転送先ノードのID、%n4 - 受領側が均等な所有数に達するために取得する必要のあるパーティション数。重大度: 4: デバッグ・レベル4。
- Transferring backup%n1 for partition %n2 from member %n3 to member %n4
-
%n1 - このノードが別のノードに転送しようとするバックアップ・パーティションの索引、%n2 - 転送対象のパーティション数、%n3 - このバックアップ・パーティションの前所有者のノードID、%n4 - バックアップ・パーティションの転送先ノードのID。重大度: 5: デバッグ・レベル5。
- Failed backup transfer for partition %n1 to member %n2; restoring owner from: %n2 to: %n3
-
%n1 - バックアップ転送が進行中だったパーティションの番号、%n2 - バックアップ・パーティションの転送先のノードID、%n3 - パーティションの前のバックアップ所有者のノードID。重大度: 4: デバッグ・レベル4。
- Limiting primary transfer to %n1 KB (%n2 partitions)
-
%n1 - 転送サイズの制限(KB)、%n2 - 転送されたパーティションの数。重大度: 4: デバッグ・レベル4。
- DistributionRequest was rejected because the receiver was busy Next retry in %n1 ms
-
%n1 - 次回の分散チェックがスケジュールされるまでの期間(ミリ秒)。重大度: 6: デバッグ・レベル6。
- Re-publishing the ownership for partition %n1 (%n2)
-
%n1 - 所有権が再公開されるパーティションの番号、%n2 - プライマリ・パーティションの所有者のノードIDか0(パーティションが孤立している場合)。重大度: 4: デバッグ・レベル4。
- %n1> Ownership conflict for partition %n2 with member %n3 (%n4!=%n5)
-
%n1 - 所有権の競合の解決の試行回数、%n2 - 所有権の問題が発生しているパーティション、%n3 - パーティションの所有権に関する不一致のあるサービス・メンバーのノードID、%n4 - このノードの所有権マップにおけるパーティションのプライマリ所有者のノードID、%n5 - 別のノードの所有権マップにおけるパーティションのプライマリ所有者のノードID。重大度: 4: デバッグ・レベル4。
- validatePolls: This service timed-out due to unanswered handshake request Manual intervention is required to stop the members that have not responded to this Poll
-
重大度: 1: エラー。
- com.tangosol.net.RequestPolicyException: No storage-enabled nodes exist for service service_name
-
重大度: 1: エラー。
- An entry was inserted into the backing map for the partitioned cache "%s" that is not owned by this member; the entry will be removed"
-
%s - 挿入が試行されたキャッシュ名。重大度: 1: エラー。
- Exception occurred during filter evaluation: %s; removing the filter...
-
%s - 評価時にエラーが発生したフィルタの説明。重大度: 1: エラー。
- Exception occurred during event transformation: %s; removing the filter...
-
%s - イベント変換時にエラーが発生したフィルタの説明。重大度: 1: エラー。
- BackingMapManager %s1: returned "null" for a cache: %s2
-
%s1 - nullバッキング・マップを返したBackingMapManager実装のクラス名、%s2 - BackingMapManagerからnullが返されたキャッシュの名前。重大度: 1: エラー。
- BackingMapManager %s1: failed to instantiate a cache: %s2
-
%s1 - バッキング・マップの作成に失敗したBackingMapManager実装のクラス名、%s2 - BackingMapManagerのエラーが発生したキャッシュの名前。重大度: 1: エラー。
- BackingMapManager %s1: failed to release a cache: %s2
-
%s1 - バッキング・マップの解放に失敗したBackingMapManager実装のクラス名、%s2 - BackingMapManagerのエラーが発生したキャッシュの名前。重大度: 1: エラー。
- Unexpected event during backing map operation: key=%s1; expected=%s2; actual=%s3
-
%s1 - キャッシュで変更されていたキー、%s2 - 進行中のキャッシュ操作から予期されるバッキング・マップ・イベント、%s3 - 受信した実際のMapEvent。重大度: 6: デバッグ・レベル6。
- Application code running on "%s1" service thread(s) should not call %s2 as this may result in deadlock The most common case is a CacheFactory call from a custom CacheStore implementation
-
%s1 - リエントラント・コールを実行したサービスの名前、%s2 - リエントラント・コールが実行されたメソッドの名前。重大度: 2: 警告
- Repeating %s1 for %n1 out of %n2 items due to re-distribution of %s2
-
%s1 - 再送信が必要なリクエストの説明、%n1 - 再分散により未処理になった項目の数、%n2 - リクエストされた項目の合計数、%s2 - 再分散処理を実行中のためリクエストの再送信が必要なパーティションのリスト。重大度: 5: デバッグ・レベル5。
- Error while starting cluster: com.tangosol.net.RequestTimeoutException: Timeout during service start: ServiceInfo(%s)
-
%s - 開始できないサービスに関する情報。重大度: 1: エラー。
親トピック: ログ・メッセージのリファレンス
サービス・スレッド・プールのログ・メッセージ
サービス・スレッド・プールに関連するログ・メッセージ
- プールが安定していないため、DaemonPool "%s"のプール・サイズが%n1から%n2スレッドに増えています
-
%s - サービス名、%n1 - 現在のスレッド・プールの数、%n2 - 新しいスレッド・プールの数。重大度: 3 - 情報。
原因: スレッド・プールの数が断続的に増加するため、スレッド・プールのスループットを測定して、増加することが有効かどうかが判断されます。スレッド数は、動的スレッド・プールが有効で、新しいスレッド数が構成された最大値を超えていない場合にのみ増加します。
処置:: 処置は必要ありません。これは、最も効果的なスレッド・プール数を決定するプロセスの一部です。
- %n3op/秒のスループットが低下したため、DaemonPool "%s"のプール・サイズが%n1から%n2スレッドに増えています
-
%s - サービス名、%n1 - 現在のスレッド・プールの数、%n2 - 新しいスレッド・プールの数、%n3 - 1秒当たりの操作数の変更。重大度: 3 - 情報。
原因: スレッド数が少ないため、スレッド・プールのタスクのスループットが低下しました。スループットを向上させるため、スレッド数が増加しています。スレッド数は、動的スレッド・プールが有効で、新しいスレッド数が構成された最大値を超えていない場合にのみ増加します。
処置:: 処置は必要ありません。これは、最も効果的なスレッド・プール数を決定するプロセスの一部です。
- %n3op/秒のスループットが低下したため、DaemonPool "%s"のプール・サイズが%n1から%n2スレッドに減っています
-
%s - サービス名、%n1 - 現在のスレッド・プールの数、%n2 - 新しいスレッド・プールの数、%n3 - 1秒当たりの操作数の変更。重大度: 3 - 情報。
原因: スレッド数が多いため、スレッド・プールのタスクのスループットが低下しました。スループットを向上させるため、スレッド数が減少しています。スレッド数は、動的スレッド・プールが有効で、新しいスレッド数が構成された最小値を下回らない場合にのみ減少します。
処置:: 処置は必要ありません。これは、最も効果的なスレッド・プール数を決定するプロセスの一部です。
親トピック: ログ・メッセージのリファレンス
TMBログ・メッセージ
TMBに関連するログ・メッセージ。
- %s1 rejecting connection from %s2 using incompatible protocol id %s3, required %s4
-
%s1 - ローカル・エンドポイント、%s2 - ソケット・アドレス、%s3 - 接続プロトコルID、%s4 - 必要なプロトコルID。重大度: 2-警告。
原因: 互換性のないプロトコル識別子を持つCoherenceノードがこのノードとの接続を確立しようとしました。これは、リクエストが悪意のある接続試行によるものであるか、メッセージ・ヘッダーが破損していないかぎり発生しません。
処置: リモート・ノードを再起動してください。問題が解決しない場合は、すべての関連情報を調査のためにOracle Supportに送信します。
- %s1 rejecting connection from %s2, bus is closing
-
%s1 - ローカル・エンドポイント、%s2 - ソケット・アドレス。重大度: 5-デバッグ。
原因: ローカル・メッセージ・バス接続が、閉じられている間に接続リクエストを受信しました。これは、ローカル・ノードの停止中に発生する可能性があります。
処置:: 処置は必要ありません。
- %s1 deferring reconnect attempt from %s2 on %s3, pending release
-
%s1 - ローカル・エンドポイント、%s2 - ピアのエンドポイント、%s3 - 関連付けられたチャネル・ソケット。重大度: 5-デバッグ。
原因: 現在の接続がアプリケーションが完全に解放されるのを待機している間に、ローカル・メッセージ・バス接続が同じリモート・エンドポイントから再接続リクエストを受信しました。
処置:: 処置は必要ありません。
- %s1 replacing deferred reconnect attempt from %s2 on %s3, pending release
-
%s1 - ローカル・エンドポイント、%s2 - ピアのエンドポイント、%s3 - 関連付けられたチャネル・ソケット。重大度: 5-デバッグ。
原因: アプリケーションが完全に解放されるまで待機している間に、ローカルTCPソケットが後続の再接続リクエストを受信したため、以前の再接続の試行を置き換えます。接続ハンドシェイク・プロトコルの一部としてリモート・エンドポイントとローカル・エンドポイントの両方から同時接続が開始される可能性があるため、これは想定内です。
処置:: 処置は必要ありません。
- %s1 initiating connection migration with %s2 after %n ack timeout %s3
-
%s1 – ローカル・エンドポイント、%s2 - ピアのエンドポイント、%n - ACKタイムアウト値、%s3 - デバッグ情報。重大度: 2: 警告
原因: メッセージが送信されましたが、そのメッセージの論理ACKが構成されているACKタイムアウトを超えても受信されませんでした。このタイムアウトのデフォルト値は15秒ですが、Coherenceとしては長時間メッセージを配信しないことになります。これは、ストールした接続を検出し、状況を解決するための修正アクションを開始する手段です。
処置: ストールした接続が正しく推測された場合は、接続を新しいTCP接続に移行する処置で問題を解決できます。ストールした接続を解決するには、特定のLinuxカーネル・バージョンでストールが確認されているため、OSの最新バージョンがインストールされていることを確認します。接続がインストールされていない可能性やプロセスが応答しないことが原因である可能性があります。したがって、%s2に示されているマシンへのネットワーク接続が適切であり、プロセスが(GCループせず)応答していることも確認してください。頻繁な移行は、パフォーマンスと可用性に重大な影響を及ぼします。メッセージが頻繁に繰り返される場合は、ローカルとピアの両方からヒープ・ダンプを収集し、使用可能なネットワーク・レポートおよびすべてのCoherenceログを収集します。調査のためにOracle Supportに情報を送信します。
- %s1 accepting connection migration with %s2, replacing %s3 with %s4:%s5
-
%s1 - ローカル・エンドポイント、%s2 - ピア・エンドポイント、%s3 - 古いSocketChannel、%s4 - 新しいSocketChannel、%s5 – 古いメッセージ・バス接続。重大度: 2: 警告
原因: ローカルが接続の問題を認識していないときに、ピアが接続の移行を開始しました。ローカル・メッセージ・バスはリクエストを受け入れ、古いソケット・チャネルを新しいソケット・チャネルに置き換えました。この移行は、TCP接続ストール、GCまたはネットワークの問題が原因で発生する可能性があります。
処置: 問題が解決しない場合は、ローカル・サーバーとリモート・サーバーのヒープ・ダンプ、使用可能なネットワーク・レポートおよびすべてのCoherenceログを収集してください。調査のためにOracle Supportに情報を送信します。また、TCPキャプチャを有効にすると、メッセージがピアと送信者によって受信されているかどうかについて意義深い知見を得られます。
- %s1 migrating connection with %s2 off %s3 on %s4
-
%s1 - ローカル・エンドポイント、%s2 - ピア・エンドポイント、%s3 - ソケット・チャネル、%s4 - メッセージ・バス接続の文字列表現。重大度: 6-デバッグ。
原因: ローカル・メッセージ・バスが、ACKタイムアウトまたは別のエラーのために接続の移行を開始しました。アプリケーションがまだ機能している間にメッセージが頻繁に表示される場合は、プロセスが応答していないか(GCが原因であることが多い)、ネットワークに問題があることを示しており、クラスタのパフォーマンスに影響する可能性があります。
処置: リモートGCまたはネットワークの問題を調べてください。問題が解決しない場合は、ローカルとピアの両方のヒープ・ダンプおよびすべてのCoherenceログを調査のためにOracle Supportに送信します。また、TCPキャプチャを有効にすると、メッセージがピアと送信者によって受信されているかどうかについて意義深い知見を得られます。
- %s1 synchronizing migrated connection with %s2 will result in %n1 skips and %n2 re-deliveries: %s3
-
%s1 – ローカル・エンドポイント、%s2 - ピアのエンドポイント、%n1 - スキップするメッセージ数、%n2 - 再配信するメッセージ数、%s3 – ローカル・バス接続の文字列表現。重大度: 5-デバッグ。
原因: これは情報のみです。移行された接続では、メッセージのACKを受信したかどうかに応じて、キューに入れられたメッセージをスキップまたは再配信する必要があります。
処置:: 処置は必要ありません。
- %s1 rejecting connection migration from %s2 on %s3, no existing connection %s4/%s5
-
%s1 - ローカル・エンドポイント、%s2 - ピア・エンドポイント、%s3 - ローカル・ソケット・アドレス、%s4 - 現在の接続識別子、%s5 - 古い接続識別子、または古い接続が存在しない場合は0。重大度: 5-デバッグ。
原因: ローカル・メッセージ・バスが、存在しない接続で移行リクエストを受信しました。したがって、リクエストを拒否します。ほとんどの場合、接続は解放されています。
処置:: 処置は必要ありません。
- %s1, %s2 accepted connection migration with %s3:%s4
-
%s1 - ローカル・エンドポイント、%s2 - ピア・エンドポイント、%s3 - ソケット・チャネル、%s4 - メッセージ・バス接続の文字列表現。重大度: 2: 警告
原因: これは情報メッセージです。接続の移行でハンドシェイク・プロトコルが正常に終了しました。
処置:: 処置は必要ありません。
- %s1 resuming migrated connection with %s2
-
%s1 - ローカル・エンドポイント、%s2 - バス接続の文字列表現。重大度: 5-デバッグ。
原因: これは情報メッセージです。接続は正常に移行されました。移行された新しいソケット・チャネルで通常の処理を再開しています。
処置:: 処置は必要ありません。
- %s1 ServerSocket failure; no new connection will be accepted.
-
%s2 - ローカル・エンドポイント。重大度: 1: エラー。
原因: このメッセージは、メッセージ・バスが新しい接続を受け入れるサーバー・ソケット・チャネルが選択サービスへの登録に失敗したことを示しています。
処置: これは予期しない状態であり、プロセスが正常状態に戻らない場合はノードの再起動が必要になることがあります。
- %s1 disconnected connection with %s2
-
%s1 - ローカル・エンドポイント、%s2 - リモート・エンドポイント。重大度: 3-情報。
原因: 示されたリモート・エンドポイントとの接続が切断されました。
処置:: 処置は必要ありません。
- %s1 close due to exception during handshake phase %s2 on %s3
-
%s1 - ローカル・エンドポイント、%s2 - ハンドシェイクのフェーズ、%s3 - 接続チャネルに関連付けられたソケット。重大度: 2: 警告
原因: SSLExceptionが原因で、示されたハンドシェイク・フェーズ中に接続リクエストが拒否されました。関連付けられたソケット・チャネルは閉じられました。
処置: エラー・メッセージにハンドシェイクが失敗した理由が示され、解決するのに十分な情報(期限切れの証明書など)が提供されます。問題が解決しない場合は、Oracle Supportにお問い合せください。
- %s1 dropping connection with %s2 after %s3 fatal ack timeout %s4
-
%s1 - ローカル・エンドポイント、%s2 - リモート・エンドポイント、%s3 - 致命的なACKタイムアウト値(ミリ秒)、%s4 - デバッグ用の情報。重大度: 2: 警告
原因: ローカル・バス接続は、構成されている致命的なACKタイムアウトの間にピアからの応答を得られませんでした。接続はリカバリ不能なため削除されます。これは、プロセスが長く応答しないこと(潜在的なGCの問題)またはネットワークの問題が原因である可能性があります。
処置: リモートGCログまたはネットワーク・ログを調べてください(TCPキャプチャ/ネットワーク・モニタリング)。問題が解決しない場合は、ローカルとピアの両方のヒープ・ダンプおよびすべてのCoherenceログを調査のためにOracle Supportに送信します。
- %s unexpected exception during Bus accept, ignoring
-
%s - ローカル・エンドポイント。重大度: 3-情報。
原因: サーバー・ソケットがによる接続リクエストの受入れ中に例外が発生しました。サーバー・ソケット・チャネルがまだ開いているため、例外を無視してリクエストの受入れを続行できます。
処置:: 処置は必要ありません。
- %s ServerSocket failure; no new connection will be accepted
-
%s - ローカル・エンドポイント。重大度: 1: エラー。
原因: サーバー・ソケットによる接続リクエストの受入れ中に例外が発生し、サーバー・ソケットが予期せず閉じられました。
処置: ノードを再起動してください。問題が解決されない場合は、Oracleサポートに連絡してください。
親トピック: ログ・メッセージのリファレンス
クラスタ・サービスの例外
クラスタ・サービスによってスローされる例外。
- IllegalStateException: クラスタは停止されており、再起動できません。
-
原因: サービス・ガーディアンが応答しないサービス・スレッドの終了に失敗し、ガーディアン・サービス失敗ポリシーが
exit-cluster
になっている場合、クラスタが停止されます。クラスタの停止後にCoherenceクラスタ操作を使用しようとすると、この例外が発生します。処置: クラスタが停止したら、サーバー・プロセスを再開します。今後サーバー・プロセスを再開しなくてもよいように、より環境に適したガーディアン・サービス失敗ポリシー・オプションが他にないか確認します。『Oracle Coherenceでのアプリケーションの開発』のガーディアン・サービス失敗ポリシーの設定に関する項を参照してください。
デフォルトのガーディアン・サービス失敗ポリシーは、
exit-cluster
です。この失敗が発生した時間を特定するには、サーバー・ログでガーディアン・サービス・ログ・メッセージ"Oracle Coherence <Error>: Halted the cluster: Cluster is not running: State=5"を検索します。
親トピック: ログ・メッセージのリファレンス
ガーディアン・サービスのログ・メッセージ
ガーディアン・サービスに関連するログ・メッセージ。
- %s1/{WrapperGuardable Guard{Daemon=%s2 } Service=%s3{Name=%s4, State=(SERVICE_STARTED), …}}後にハード・タイムアウトが検出されました
-
%s1 – 期間; %s2 - キャッシュ・スキーム:サービス名; %s3 – サービスの種類: %s4 – サービス名
原因: ガーディアン・サービスが、%s1の期間中、サービスからハートビートを受信していませんでした。サービスは、応答しないスレッドの終了を試みます。
処置:: 情報です。通常、ガーディアンはサービス・スレッドをリカバリして続行できます。
- onServiceFailed: 状態=%n、isAlive=%b1、サービス停止スレッドisAlive=%b2で、サービス%sの停止に失敗しました
-
%s – サービス名; %n – サービス状態; %b1 – サービスがまだ有効である場合はtrue; %b2 – サービス終了スレッドがまだ有効である場合はtrue
原因: ガーディアン・サービスが、ハングしているサービス・スレッド%sを中断できませんでした。
処置: ハングしているサービスのスタック・トレースを分析し(次のメッセージを参照)、サーバー・ログで次のスレッドのフル・ダンプおよび未処理のポーリングを見つけて、サービス・スレッドが何を待機してスタックしたかを分析します。
- onServiceFailed: サービス・スレッド: スレッドThread[%s1:%s2,%n,Cluster]のスタック・トレース: <%stackTrace>
-
%s1 – キャッシュの種類; %s2 – サービス名; %n – スレッド識別子; <%stackTrace> - 割込み不能スレッドの複数行スタック・トレース
原因: ガーディアン・サービスがサービス%s2を中断できませんでした。
処置: ハングしているサービスのスタック・トレースを分析し、スレッドのフル・ダンプを検索して、スタックしたスレッドと実行中の別のスレッドの間にデッドロックがあったかどうかを確認します。
- Oracle Coherence <Error>: クラスタを停止しました: クラスタは実行されていません: 状態=5
-
原因: サービス・ガーディアンがスタックしたスレッドのリカバリに失敗し、ガーディアン・サービス失敗ポリシーが
exit-cluster
になっている場合、クラスタが停止されます。処置: クラスタが停止したら、サーバー・プロセスを再開します。今後サーバー・プロセスを再開しなくてもよいように、より環境に適したガーディアン・サービス失敗ポリシー・オプションが他にないか確認します。『Oracle Coherenceでのアプリケーションの開発』のガーディアン・サービス失敗ポリシーの設定に関する項を参照してください。デフォルトのガーディアン・サービス失敗ポリシーは、
exit-cluster
です。クラスタの停止の原因となった失敗を理解するには、サーバー・ログでこの項に示されているログ・メッセージを探します。このメッセージのタイムスタンプにより、クラスタが停止した正確な時間がわかります。
親トピック: ログ・メッセージのリファレンス
永続性ログ・メッセージ
永続性に関連するログ・メッセージ。
- "/xx/xx/CoherenceSnapshot/xxCoherenceCluster/DistributedCache/CoherenceSnapshotnnnn"はリモート・ファイル・システムを参照しているように見えるため、Coherenceの永続性では、リモート・コミットの整合性を確保するために"coherence.distributed.persistence.bdb.je.log.useODSYNC"を有効にしています。これは書込みパフォーマンスに影響を与える可能性があるため、この決定をオーバーライドするためにシステム・プロパティを明示的に"false"に設定できます。ただし、これは、場所が実際にはローカル・ファイル・システムである場合にのみ推奨されます。
-
原因: Coherenceは、永続性環境がローカル・ファイル・システムではなく、NFSなどのリモート・ファイル・システムを指していることを検出しました。そのため、プロパティ
coherence.distributed.persistence.bdb.je.log.useODSYNC
は、永続化されるキャッシュ・データのリモート・コミットの整合性を確保するために自動的に有効化されます。処置: リモート・ファイル・システムに対して
ODSYNC
を有効にすることを強くお薦めします。coherence.distributed.persistence.bdb.je.log.useODSYNC
プロパティは、書込みパフォーマンスを高速化するためにfalse
に設定することで明示的に無効にすることもできます(たとえば、ファイル・システムがリモートとして検出されたが、事実上ローカルである場合)。
親トピック: ログ・メッセージのリファレンス