ヘッダーをスキップ
Oracle Coherence開発者ガイド
リリース3.5
B56039-01
  目次
目次

戻る
戻る
 
 

Q ログ・メッセージのリファレンス

この付録は、次の各項で構成されています。

TCMPのログ・メッセージ

TCMPに関連するログ・メッセージは次のとおりです。

Experienced a %n1 ms communication delay (probable remote GC) with Member %s

パラメータ: %n1: 通信遅延の待機時間(ミリ秒)、%s: 全メンバー情報
重大度: 遅延の長さによって、2: 警告、5: デバッグ・レベル5または6: デバッグ・レベル6
原因: このノードで、指定されたノードからの確認パケットの受信遅延が検出され、リモートGC(ローカルGCではなく)が原因である可能性が高いと判断されました。このメッセージは、指定されたノードから期限切れの確認パケットを受信しており、その問題がそのノードのGCが原因で発生したと推測されることを示しています。
処置: GCが長期化したり、頻度が高かったりすると、クラスタのパフォーマンスと可用性に悪影響を及ぼす場合があります。この警告が頻繁に表示される場合は、JVMヒープおよびGCの構成とチューニングを確認してください。詳細は、第19章「パフォーマンス・チューニング」を参照してください。

Failed to satisfy the variance: allowed=%n1 actual=%n2

パラメータ: %n1: 許容最大待機時間(ミリ秒)、%n2: 実際の待機時間(ミリ秒)
重大度: メッセージの発生頻度に応じて、3: 情報または5: デバッグ・レベル5
原因: Coherenceクラスタ検出プロトコルの最初のステップの1つとして、新しいノードと上位ノードとの間のクロックの差異が計算されます。このステップでは、ノード間のpeer-to-peerラウンドトリップUDP通信の待機時間が比較的短いと想定されます。デフォルトの構成済の最大許容待機時間(<maximum-time-variance>構成要素の値)は16ミリ秒です。「incoming-message-handler」を参照してください。構成済の待機時間を超えると、このメッセージがログに記録され、待機時間のしきい値が大きくなり、以降のメッセージに反映されます。
処置: 待機時間が依然として非常に長い場合は(100ミリ秒超)、ネットワーク管理者に連絡して、第16章「ネットワーク・パフォーマンスのデータグラム・テストの実行」を参照してください。

Created a new cluster "%s1" with Member(%s2)

パラメータ: %s1: クラスタ名、%s2: 全メンバー情報
重大度: 3: 情報
原因: Coherenceノードが構成された時間内(<join-timeout-milliseconds>要素で指定、「multicast-listener」を参照)に既存のクラスタに参加しようとしましたが、他のノードからの応答をまったく受信しませんでした。そのため、指定された名前の新しいクラスタを作成しました(<cluster-name>要素(「member-identity」を参照)によって構成された名前か、マルチキャスト・リスナーのアドレスやポートまたはwell-known-addressesリストに基づいて計算された名前のいずれか)。メンバー情報には、ノードID、作成タイムスタンプ、ユニキャスト・アドレスとポート、ロケーション、プロセスID、ロールなどが含まれます。
処置: このノードがクラスタ内の最初のノードである場合、処置は特に必要ありません。最初のノードでない場合は、オペレーション・コンフィギュレーションを確認して、このノードが既存クラスタに参加できない原因を調べる必要があります。

This Member(%s1) joined cluster "%s2" with senior Member(%s3)

パラメータ: %s1: このノードの全メンバー情報、%s2: クラスタ名、%s3: クラスタの上位ノードの全メンバー情報
重大度: 3: 情報
原因: このCoherenceノードは既存クラスタに参加しました。
処置: このノードが既存クラスタに参加予定である場合、処置は特に必要ありません。それ以外の場合は、実行中のクラスタを特定して、修正処置について検討してください。

Member(%s) joined Cluster with senior member %n

パラメータ: %s: このノードが属するクラスタに参加した新しいノードの全メンバー情報、%n: クラスタの上位ノードのノードID
重大度: 5: デバッグ・レベル5
原因: 新しいノードが既存のCoherenceクラスタに参加しました。
処置: 特にありません。

Member(%s) left Cluster with senior member %n

パラメータ: %s: クラスタから離脱したノードの全メンバー情報、%n: クラスタの上位ノードのノードID
重大度: 5: デバッグ・レベル5
原因: ノードがクラスタから離脱しました。その原因としては、プログラムによるシャットダウン、プロセスの終了(正常または異常)またはその他の通信障害(例: ネットワークの切断または非常に長期のGCの一時停止)が考えられます。このメッセージは、ノードの離脱をレポートするものです。
処置: このノードの離脱が計画的なものである場合、処置は特に必要ありません。計画外の場合は離脱したノードのログを分析する必要があります。

MemberLeft notification for Member %n received from Member(%s)

パラメータ: %n: 離脱したノードのノードID、%s: クラスタから離脱したノードの全メンバー情報
重大度: 5: デバッグ・レベル5
原因: Coherenceノードが終了すると、他よりも早くこの離脱がノードによって検出されます。通常、TCPリング接続を介して接続されたノード(TCPリング バディ)が最初にこれを検出します。このメッセージは、離脱を最初に検出したノードに関する情報を提供します。
処置: このノードの離脱が計画的なものである場合、処置は特に必要ありません。計画外の場合は、離脱したノードと離脱を検出したノードの両方のログを分析する必要があります。

Service %s joined the cluster with senior service member %n

パラメータ: %s: サービス名、%n: 上位サービス・メンバーのID
重大度: 5: デバッグ・レベル5
原因: 所定のノードでクラスタ・サービスが開始すると、Coherenceは特定のサービスを実行するすべてのクラスタ・ノード間でハンドシェイク・プロトコルを開始します。このメッセージは、このプロトコルが開始したことを通知するものです。この時点で上位ノードが不明の場合は、n/aと表示されます。
処置: 特にありません。

Member %n1 joined Service %s with senior member %n2

パラメータ: %n1: サービスに参加するCoherenceノードのID、%s: サービス名、%n2: サービスの上位ノード
重大度: 5: デバッグ・レベル5
原因: いずれかのクラスタ・ノードでクラスタ・サービスが開始すると、Coherenceは特定のサービスを実行するすべてのクラスタ・ノード間でハンドシェイク・プロトコルを開始します。このメッセージは、指定されたノードがハンドシェイクを正常に完了してサービスに参加したことを通知するものです。
処置: 特にありません。

Member %n1 left Service %s with senior member %n2

パラメータ: %n1: サービスに参加するCoherenceノードのID、%s: サービス名、%n2: サービスの上位ノード
重大度: 5: デバッグ・レベル5
原因: いずれかのクラスタ・ノードでクラスタ・サービスが終了すると、そのサービスを実行する他のすべてのノードにこのイベントが通知されます。このメッセージは、指定されたノードで指定されたクラスタ・サービスが終了したことを通知するものです。
処置: 特にありません。

Service %s: received ServiceConfigSync containing %n entries

パラメータ: %s: サービス名、%n: サービス構成マップ内のエントリ数
重大度: 5: デバッグ・レベル5
原因: サービスの上位メンバーは、指定のサービスを実行しているすべてのクラスタ・ノード間のサービス・ハンドシェイク・プロトコルの一部として、新しいノードのそれぞれについて、サービス構成マップの全コンテンツを更新します。パーティション・キャッシュ・サービスの場合は、完全なパーティション所有権カタログとすべての既存キャッシュの内部IDがこのマップに含まれます。上位ノードでサービスが異常終了した場合は、サービスの上位ノードの役割を新しいノードが引き継ぐ際にも、同じメッセージが送信されます。このメッセージは、指定されたノードが構成の更新を受信したことを通知するものです。
処置: 特にありません。

TcpRing: connecting to member %n using TcpSocket{%s}

パラメータ: %s: 他のノードへのTcpRingコネクタとして機能するTcpSocketに関する全情報、%n: このノードが接続されるノードのID
重大度: 5: デバッグ・レベル5
原因: Coherenceは、TcpRingと呼ばれる機能を利用して、プロセスの終了を迅速に検出します。TcpRingは、クラスタ内の異なるノード間でのTCP/IP接続のスパース・コレクションです。クラスタ内の各ノードが(可能であれば)別の物理的なボックスで実行されている1つ以上の他のノードに接続されます。この接続は、データ転送には使用されません。各リンクで1秒に1回単純なハートビート通信が送信されるだけです。このメッセージは、このノードと指定されたノードの間で接続が開始されたことを示しています。
処置: 特にありません。

Rejecting connection to member %n using TcpSocket{%s}

パラメータ: %n: このノードへの接続を試行するノードのID、%s: 他のノードへのTcpRingコネクタとして機能するTcpSocketに関する全情報
重大度: 4: デバッグ・レベル4
原因: 異なるノード上で実行されているTCPリング・デーモンが相互に、または同じノード上で同時に参加を試みることがあります。その場合、受信側のノードが、その接続が冗長であると判断して、着信接続リクエストを拒否することがあります。このメッセージは、このような状況が発生したときに、リクエストを拒否したノードによってログに記録されます。
処置: 特にありません。

Timeout while delivering a packet; requesting the departure confirmation for Member(%s1) by MemberSet(%s2)

パラメータ: %s1: このノードが通信に失敗したノードの全メンバー情報、%s2: メンバーが離脱した疑いについて確認するよう要求された証人ノードに関する全情報
重大度: 2: 警告
原因: Coherenceでは、すべてのデータ通信(大半はpeer-to-peerユニキャスト)にUDPが使用されますが、UDP自体では、配信について保証されているわけではありません。それについては、Coherenceで使用されるクラスタ管理プロトコル(TCMP)で保証されています。TCMPデーモンは、すべての着信通信の確認(ACKまたはNACK)を行う役割があります。ACK間隔(ack-delay-milliseconds)の期限内に確認できなかったパケットが1つ以上ある場合、それらのパケットは再送信されます。パケットが最終的に確認できるまで、またはタイムアウト間隔(timeout-milliseconds)が経過するまで、この処理が繰り返されます。このときに、このメッセージがログに記録され、証人プロトコルによって、他のクラスタ・ノードで応答のないノードとの間に同様の通信遅延が発生したことがあるかどうかが確認されます。証人ノードは、ロールとロケーションを基準にして選択されます。
処置: クラスタの残りの部分は動作を継続し、このノードは回復してクラスタに再参加すると推測されるため、修正処置が必要になるとは限りません。ただし、問題の根本原因の調査が必要になる場合もあります(特に一定の頻度で繰返し発生する場合)。

This node appears to have become disconnected from the rest of the cluster containing %n nodes.All departure confirmation requests went unanswered.Stopping cluster service.

パラメータ: %n: このノードがメンバーとして属していたクラスタ内の他のノードの数
重大度: 1: エラー
原因: 有効なJavaプロセス内のアクティブなノードが他のクラスタ・ノードとの通信を停止する場合があります(想定される原因としては、a) ネットワーク障害、b) 極端に長期にわたるGCの停止、c) プロセスのスワップアウトなどがあります)。その場合、他のクラスタ・ノードは、一時停止したノードからのクラスタ・メンバーシップを無効にして、そのノードによるその後の通信の試行を完全に回避することを選択できます。その場合、プロセスがクラスタ通信を再開しようとすると、このメッセージがログに記録されます。
処置: クラスタの残りの部分は動作を継続し、このノードは回復してクラスタに再参加すると推測されるため、修正処置が必要になるとは限りません。ただし、問題の根本原因の調査が必要になる場合もあります(特に一定の頻度で繰返し発生する場合)。

コンフィギュレーションのログ・メッセージ

コンフィギュレーションに関連するログ・メッセージは次のとおりです。

java.io.IOException: Configuration file is missing: "tangosol-coherence.xml"

パラメータ: N/A
重大度: 1: エラー
原因: オペレーション・コンフィギュレーション・ディスクリプタをロードできません。
処置: Javaコマンドラインで指定されたクラス・パスからtangosol-coherence.xmlリソースがロードできることを確認してください。

Loaded operational configuration from resource "%s"

パラメータ: %s: オペレーション・コンフィギュレーション・ディスクリプタの完全なリソース・パス(URI)
重大度: 3: 情報
原因: Coherenceでは、指定された場所から、オペレーション・コンフィギュレーション・ディスクリプタがロードされます。
処置: オペレーション・コンフィギュレーション・ディスクリプタの場所がシステム・プロパティまたはプログラムによって明示的に指定されている場合は、レポートされたURIが予期されている場所と一致しているかどうかを確認してください。

Loaded operational overrides from "%s"

パラメータ: %s: オペレーション・コンフィギュレーション・ディスクリプタ・オーバーライドのURI(ファイルまたはリソース)
重大度: 3: 情報
原因: オペレーション・コンフィギュレーション・ディスクリプタがポイントするオーバーライドの場所から、ディスクリプタのオーバーライドがロードされています。
処置: オペレーション・コンフィギュレーション・ディスクリプタの場所がシステム・プロパティ、ディスクリプタ・オーバーライドまたはプログラムによって明示的に指定されている場合は、レポートされたURIが予期されている場所と一致しているかどうかを確認してください。

Optional configuration override "%s" is not specified

パラメータ: %s: オペレーション・コンフィギュレーション・ディスクリプタ・オーバーライドのURI
重大度: 3: 情報
原因: オペレーション・コンフィギュレーション・ディスクリプタがオーバーライドの場所をポイントしていますが、その場所にはリソースがありません。
処置: オペレーション・コンフィギュレーション・ディスクリプタ・オーバーライドが存在していなくてもよいかどうかを確認してください。

java.io.IOException: Document "%s1" is cyclically referenced by the 'xml-override' attribute of element %s2

パラメータ: %s1: オペレーション・コンフィギュレーション・ディスクリプタまたはオーバーライドのURI、%s2: 間違った参照URIが含まれたXML要素の名前
重大度: 1: エラー
原因: オペレーション・コンフィギュレーション・オーバーライドが、それ自体をポイントしているかそのオーバーライドをポイントする別のオーバーライドをポイントしており、無限再帰が発生しています。
処置: 無効なxml-override属性値を修正してください。

java.io.IOException: Exception occurred during parsing: %s

パラメータ: %s: XMLパーサーのエラー
重大度: 1: エラー
原因: 指定されたXMLが無効のため解析できません。
処置: XMLドキュメントを修正してください。

Loaded cache configuration from "%s"

パラメータ: %s: キャッシュ・コンフィギュレーション・ディスクリプタのURI(ファイルまたはリソース)
重大度: 3: 情報
原因: オペレーション・コンフィギュレーション・ディスクリプタ、またはプログラムによって作成されたConfigurableCacheFactoryインスタンスが、すでにロードされているキャッシュ・コンフィギュレーション・ディスクリプタをポイントしています。
処置: レポートされたURIが、予期されているキャッシュ・コンフィギュレーション・ディスクリプタの場所と一致していることを確認してください。

パーティション・キャッシュ・サービスのログ・メッセージ

パーティション・キャッシュに関連するログ・メッセージは次のとおりです。

Asking member %n1 for %n2 primary partitions

パラメータ: %n1: このノードがパーティションの転送を依頼したノードのID、%n2: このノードが取得しようとしているパーティションの数
重大度: 4: デバッグ・レベル4
原因: Coherenceノードで記憶域が有効なパーティション・サービスを開始すると、最初に、記憶域が有効な他のサービス・ノードと現在のパーティション所有情報を知らせる、コンフィギュレーションの更新を受信します。この情報によって、再分散プロセスの終了時に各ノードが所有するパーティションの均等な所有数の計算が可能になります。このメッセージは、所有権を均等に分散できるようにするための特定のノードに対する一定数のパーティションの転送リクエストが開始されたことを示しているわけではありません。
処置: 特にありません。

Transferring %n1 out of %n2 primary partitions to member %n3 requesting %n4

パラメータ: %n1: このノードがリクエスト元のノードに転送するプライマリ・パーティションの数、%n2: このノードが現在所有しているプライマリ・パーティションの合計数、%n3: 転送先ノードのID、%n4: リクエスト元ノードが要求するパーティションの数
重大度: 4: デバッグ・レベル4
原因: パーティション分散プロトコルでは、所有するプライマリ・パーティションの数が均等な所有数よりも少ないノードが、多く所有するノードに対して所有パーティションの一部の転送をリクエストします。所有者は、リクエストされた数以内の任意の数のパーティションを送信できます。このメッセージは、対応するプライマリ ・データの転送の開始位置を示します。
処置: 特にありません。

Transferring %n1 out of %n2 partitions to a machine-safe backup 1 at member %n3 (under %n4)

パラメータ: %n1: このノードが別のノードに転送するバックアップ・パーティションの数、%n2: このノードが現在所有している、消失する危険のある(バックアップがない)パーティションの合計数、%n3: 転送先ノードのID、%n4: 受領側が均等な所有数に達するために取得する必要のあるパーティション数
重大度: 4: デバッグ・レベル4
原因: プライマリ・パーティションの所有権の調整が完了すると、ノードでは、強力なバックアップ・ポリシーを確実に実現するためのバックアップの分散が開始され、プライマリ所有者のマシンとは異なるマシンで実行されるノードにバックアップの所有権が割り当てられます。このメッセージは、対応するバックアップ・データの転送の開始位置を示します。
処置: 特にありません。

Transferring backup%n1] for partition %n2 from member %n3 to member %n4

パラメータ: %n1: このノードが別のノードに転送しようとするバックアップ・パーティションの索引、%n2: 転送対象のパーティション数、%n3: このバックアップ・パーティションの前所有者のノードID、%n4: バックアップ・パーティションの転送先ノードのID
重大度: 5: デバッグ・レベル5
原因: パーティション分散プロトコルでは、ノードが、そのプライマリ・パーティションのいずれかのバックアップの所有者に過負荷が生じていると判断した場合、そのノードバックアップの所有権を負荷の小さい別のノードに転送することを選択できます。このメッセージは、対応するバックアップ・データの転送の開始位置を示します。
処置: 特にありません。

Failed backup transfer for partition %n1 to member %n2; restoring owner from: %n2 to: %n3

パラメータ: %n1: バックアップ転送が進行中だったパーティションの番号、%n2: バックアップ・パーティションの転送先のノードID、%n3: パーティションの前のバックアップ所有者のノードID
重大度: 4: デバッグ・レベル4
原因: このノードは、新しいバックアップ所有者へのバックアップ・パーティションの転送中に、サービスから離脱しました。このノードは、バックアップの所有権を元のバックアップ所有者に戻しています。
処置: 特にありません。

Deferring the distribution due to %n1 pending configuration updates

パラメータ: %n1
重大度: 5: デバッグ・レベル5
原因: 定期的にスケジュールされた分散チェックの実行時に、このノードはグローバル所有権マップを更新(他のノードに所有権の変更を通知)していました。このノードは、以前の所有権の変更(ほとんどの場合は、すでに完了した転送によるもの)が完了し、サービスの他のメンバーによる確認が済むまで、以降のスケジュールされた分散チェックを延期します。
処置: 特にありません。

Limiting primary transfer to %n1 KB (%n2 partitions)

パラメータ: %n1: 転送サイズの制限(KB)、%n2: 転送されたパーティションの数
重大度: 4: デバッグ・レベル4
原因: ノードは、負荷の小さいノードから一部のプライマリ・パーティションの転送リクエストを受信した場合、任意の数のパーティション(要求された数以内)をリクエスト側に転送できます。転送のサイズは、<distributed-scheme>要素内の<transfer-threshold>要素によって制限されます。このメッセージは、transfer-thresholdの制限に従い、分散アルゴリズムによって転送が指定パーティション数に制限されたことを示しています。
処置: 特にありません。

DistributionRequest was rejected because the receiver was busy.Next retry in %n1 ms

パラメータ: %n1: 次回の分散チェックがスケジュールされるまでの期間(ミリ秒)
重大度: 6: デバッグ・レベル6
原因: この(負荷の少ない)ノードは、別のノードに対して、1つ以上のパーティションの転送を求める分散リクエストを発行しました。しかし、そのノードは、以前のさらに別のノードとの間での転送を完了しようとしていたため、転送の開始を拒否しました。このノードは、少なくとも指定された期間待機してから(以前の転送が完了できるようにするため)、次の分散チェックを実行します。
処置: 特にありません。

Restored from backup %n1 partitions

パラメータ: %n1: リストアされるパーティションの数
重大度: 3: 情報
原因: このノードが所有するバックアップ・パーティションの一部のプライマリ所有者がサービスから離脱しました。このノードは、それらのパーティションをバックアップ記憶域からリストアしています(プライマリの所有権を引き継ぎます)。このメッセージの後には、リストア対象のパーティションのリストが続きます。
処置: 特にありません。

Re-publishing the ownership for partition %n1 (%n2)

パラメータ: %n1: 所有権が再公開されるパーティションの番号、%n2: プライマリ・パーティションの所有者のノードIDか0(パーティションが孤立している場合)
重大度: 4: デバッグ・レベル4
原因: サービス・メンバーシップの変更の発生時に、このノードは別のノードにパーティションを転送中であったため、再分散が必要です。このメッセージは、転送中のパーティションに関する所有権の情報をこのノードが再公開していることを示しています。
処置: 特にありません。

%n1> Ownership conflict for partition %n2 with member %n3 (%n4!=%n5)

パラメータ: %n1: 所有権の競合の解決の試行回数、%n2: 所有権の問題が発生しているパーティション、%n3: パーティションの所有権に関する不一致のあるサービス・メンバーのノードID、%n4: このノードの所有権マップにおけるパーティションのプライマリ所有者のノードID、%n5: 別のノードの所有権マップにおけるパーティションのプライマリ所有者のノードID
重大度: 4: デバッグ・レベル4
原因: パーティション所有者が流動的な状態のときにサービス・メンバーシップの変更が発生すると、一時的に所有権の同期がとれなくなり、調整が必要になる場合があります。このメッセージは、そのような競合が検出され、その解決が試みられていることを示しています。
処置: 特にありません。

Assigned %n1 orphaned primary partitions

パラメータ: %n1: 再割当てされた孤立プライマリ・パーティションの数
重大度: 2: 警告
原因: このサービス・メンバー(記憶域が有効な最上位のメンバー)により、1つ以上のパーティションにプライマリ所有者がないこと(孤立)が検出されました。複数のノードがサービスから同時に離脱したことが原因だと推定されます。残りのサービス・メンバーは、パーティションの所有権について合意し、その後、上位の記憶域がそれ自体に孤立パーティションを割り当てました。このメッセージの後には、割当て対象の孤立パーティションのリストが続きます。このメッセージは、対応するパーティションのデータが失われる恐れがあることを示しています。
処置: 特にありません。

java.lang.RuntimeException: Storage is not configured

パラメータ: なし
重大度: 1: エラー
原因: 記憶域が有効なサービス・メンバーがないサービスに対するキャッシュ・リクエストが発行されました。キャッシュ・リクエストを処理できるのは記憶域が有効なサービス・メンバーに限られるため、記憶域が有効なメンバーが1つ以上は必要です。
処置: コンフィギュレーション/デプロイメントをチェックして、キャッシュ・データを格納する予定のメンバーの記憶域が有効に構成されていることを確認してください。これは、<distributed-scheme>要素の<local-storage>要素または-Dtangosol.coherence.distributed.localstorageコマンドライン・オーバーライドで制御できます。

An entry was inserted into the backing map for the partitioned cache "%s" that is not owned by this member; the entry will be removed."

パラメータ: %s: 挿入が試行されたキャッシュ名
重大度: 1: エラー
原因: パーティション・キャッシュのバッキング・マップには、そのメンバーが所有するキーのみを格納できます。キャッシュ・リクエストは、リクエストされたキーを所有するサービス・メンバーにルーティングされ、そのサービス・メンバーが、所有するキーのリクエストのみを処理することが保証されます。このメッセージは、メンバーが所有していないキーの挿入がキャッシュのバッキング・マップで検出されたことを示しています。ほとんどの場合、この原因は、キャッシュ・サーバーで実行されるユーザー・コードで、公開キャッシュAPI(例: NamedCache)を使用せずにバッキング・マップが直接使用されたことです。このメッセージの後には、挿入場所を示すJava例外スタック・トレースが続きます。
処置: スタック・トレースで示されたユーザー・コードを調べて、バッキング・マップの操作に問題がないことを確認してください。このエラーは、KeyAssociationの実装方法が不適切であることを示す場合もあります。

Exception occured during filter evaluation: %s; removing the filter...

パラメータ: %s: 評価時にエラーが発生したフィルタの説明
重大度: 1: エラー
原因: このキャッシュに登録されたMapListenerのフィルタの評価中に例外がスローされました。そのため、一部のMapEventsが発行されない可能性があります。また、以降のエラーの発生を防ぐため、フィルタ(および関連付けられたMapListener)が削除されます。このメッセージの後には、エラーの発生場所を示すJava例外スタック・トレースが続きます。
処置: フィルタの実装および関連するスタック・トレースのエラーを確認してください。

Exception occured during event transformation: %s; removing the filter...

パラメータ: %s: イベント変換時にエラーが発生したフィルタの説明
重大度: 1: エラー
原因: 指定されたフィルタが、このキャッシュに登録されたMapListenerに対するMapEventを変換する際に、例外がスローされました。そのため、一部のMapEventsが発行されない可能性があります。また、以降のエラーの発生を防ぐため、フィルタ(および関連付けられたMapListener)が削除されます。このメッセージの後には、エラーの発生場所を示すJava例外スタック・トレースが続きます。
処置: フィルタの実装および関連するスタック・トレースのエラーを確認してください。

Exception occurred during index rebuild: %s

パラメータ: %s: 索引の再ビルド時に発生した例外のスタック・トレース
重大度: 1: エラー
原因: 索引の追加または再ビルド中に例外がスローされました。ValueExtractorが正しく実装されていないことが原因として考えられます。このエラーが発生すると、関連する索引が削除されます。このメッセージの後には、エラーの発生場所を示すJava例外スタック・トレースが続きます。
処置: ValueExtractorの実装および関連するスタック・トレースのエラーを確認してください。

Exception occurred during index update: %s

パラメータ: %s: 索引の更新時に発生した例外のスタック・トレース
重大度: 1: エラー
原因: 索引の更新中に例外がスローされました。ValueExtractorが正しく実装されていないことが原因として考えられます。このエラーが発生すると、関連する索引が削除されます。このメッセージの後には、エラーの発生場所を示すJava例外スタック・トレースが続きます。
処置: ValueExtractorの実装および関連するスタック・トレースのエラーを確認してください。

Exception occurred during query processing: %s

パラメータ: %s: 問合せの処理時に発生した例外のスタック・トレース
重大度: 1: エラー
原因: 問合せの処理中に例外がスローされました。問合せで使用されるFilterの実装エラーが原因として考えられます。このメッセージの後には、エラーの発生場所を示すJava例外スタック・トレースが続きます。
処置: Filterの実装および関連するスタック・トレースのエラーを確認してください。

BackingMapManager %s1: returned "null" for a cache: %s2

パラメータ: s1: nullバッキング・マップを返したBackingMapManager実装のクラス名、%s2: BackingMapManagerからnullが返されたキャッシュの名前
重大度: 1: エラー
原因: 指定されたキャッシュのバッキング・マップに対して、BackingMapManagerからnullが返されました。
処置: 指定されたBackingMapManagerの実装でエラーがないかを調べて、指定されたキャッシュのバッキング・マップが正しくインスタンス化されることを確認してください。

BackingMapManager %s1: failed to instantiate a cache: %s2

パラメータ: %s1: バッキング・マップの作成に失敗したBackingMapManager実装のクラス名、%s2: BackingMapManagerのエラーが発生したキャッシュの名前
重大度: 1: エラー
原因: 指定されたキャッシュのバッキング・マップをインスタンス化しようとしたときに、BackingMapManagerから予期しない例外がスローされました。
処置: 指定されたBackingMapManagerの実装でエラーがないかを調べて、指定されたキャッシュのバッキング・マップが正しくインスタンス化されることを確認してください。

BackingMapManager %s1: failed to release a cache: %s2

パラメータ: %s1: バッキング・マップの解放に失敗したBackingMapManager実装のクラス名、%s2: BackingMapManagerのエラーが発生したキャッシュの名前
重大度: 1: エラー
原因: 指定されたキャッシュのバッキング・マップを解放しようとしたときに、BackingMapManagerから予期しない例外がスローされました。
処置: 指定されたBackingMapManagerの実装でエラーがないかを調べて、指定されたキャッシュのバッキング・マップが正しく解放されることを確認してください。

Unexpected event during backing map operation: key=%s1; expected=%s2; actual=%s3

パラメータ: %s1: キャッシュで変更されていたキー、%s2: 進行中のキャッシュ操作から予期されるバッキング・マップ・イベント、%s3: 受信した実際のMapEvent
重大度: 6: デバッグ・レベル6
原因: キャッシュ操作の実行中に、バッキング・マップで予期しないMapEventを受信しました。これは、バッキング・マップ上で同時操作が直接実行されたことを示しており、その原因はほとんどの場合、キャッシュ・サーバーで実行されるユーザー・コードで公開キャッシュAPI(例: NamedCache)を使用せずにバッキング・マップが直接操作されたことです。
処置: バッキング・マップを直接変更する可能性があるユーザー・コードを調べて、バッキング・マップの操作に問題がないことを確認してください。

Application code running on "%s1" service thread(s) should not call %s2 as this may result in deadlock.The most common case is a CacheFactory call from a custom CacheStore implementation.

パラメータ: %s1: リエントラント・コールを実行したサービスの名前、%s2: リエントラント・コールが実行されたメソッドの名前
重大度: 2
原因: 指定されたサービスでアプリケーション・コードを実行中に、リエントラント・コール(同一サービスに対するリクエスト)が実行されました。Coherenceでは、リエントラント・サービス・コールをサポートしていないため、サービス・スレッド上で実行されるあらゆるアプリケーション・コード(CacheStore、EntryProcessorなど)でキャッシュ・リクエストが発行されないようにする必要があります。
処置: サービス・スレッド上で実行されるアプリケーション・コードからリエントラント・コールを削除し、第13章「リエントラント・コールに対する制約」で概要を説明している代替設計方針を使用することを検討してください。

Repeating %s1 for %n1 out of %n2 items due to re-distribution of %s2

パラメータ: %s1: 再送信が必要なリクエストの説明、%n1: 再分散により未処理になった項目の数、%n2: リクエストされた項目の合計数、%s2: 再分散処理を実行中のためリクエストの再送信が必要なパーティションのリスト
重大度: 5: デバッグ・レベル5
原因: キャッシュ・リクエストの発行時に、リクエストが参照するパーティションを所有するサービス・メンバーにリクエストが送信されました。リクエストが参照する1つ以上のパーティションで(再分散などによる)転送処理を実行中の場合は、リクエストが(転送前の)パーティション所有者によって拒否され、新しいパーティション所有者に自動的に再送信されます。
処置: 特にありません。