この付録では、Oracle Clusterware環境の監視について説明し、動的デバッグを有効にして、Oracle Clusterwareの処理のトラブルシューティングを行う方法、また特定のコンポーネントおよび特定のOracle Clusterwareリソースのデバッグおよびトレースを有効にして、トラブルシューティングの対象を絞り込む方法について示します。
内容は次のとおりです。
Oracle Enterprise Managerを使用して、Oracle Clusterware環境を監視できます。クライアント・ブラウザを使用してOracle Enterprise Managerにログインすると、クラスタ・データベースの「ホーム」ページが表示され、両方のOracle Clusterware環境のステータスを監視できます。監視には次のタスクが含まれます。
VIPの再配置が行われた場合の通知
クラスタ検証ユーティリティ(cluvfy
)により取得した情報を使用する、クラスタの各ノードのOracle Clusterwareのステータス
ノード・アプリケーション(nodeapps)が起動または停止した場合の通知
Oracle Cluster Registryに対するOracle Clusterwareのアラート・ログの問題、投票ディスクの問題(発生した場合)およびノードの排除の通知
クラスタ・データベースの「ホーム」ページは、シングル・インスタンス・データベースの「ホーム」ページに類似しています。ただし、クラスタ・データベースの「ホーム」ページには、Oracle Enterprise Managerにより、システムの状態と可用性が表示されます。これには、アラート・メッセージおよびジョブ・アクティビティのサマリーと、すべてのデータベースおよび自動ストレージ管理(Oracle ASM)インスタンスへのリンクも含まれます。たとえば、すべての優先インスタンスでサービスが実行されていない場合、またはサービスの応答時間のしきい値条件が満たされていない場合などに、クラスタでのサービスに関する問題を追跡できます。
Oracle Enterprise Managerの「インターコネクト」ページを使用して、Oracle Clusterware環境を監視できます。「インターコネクト」ページには、次に示すように、クラスタのパブリックおよびプライベートのインタフェース、プライベート・インターコネクトの全体的なスループット、各ネットワーク・インタフェースの個々のスループット、エラー率(発生した場合)およびインターコネクトのデータベース・インスタンスによる負荷が表示されます。
プライベート・インターコネクトでの全体的なスループット
構成ミスのためデータベース・インスタンスがパブリック・インタフェースを使用している場合の通知
インターコネクトのスループットおよびエラー(発生した場合)
インスタンスごとのインターコネクトのスループット
これらの情報はすべて、履歴表示を含む収集としても使用することができます。これは、クラスタの待機イベントに関連する問題を診断する場合など、クラスタ・キャッシュ一貫性と併用すると役立ちます。クラスタ・データベースの「ホーム」ページで、「インターコネクト」タブをクリックすると、「インターコネクト」ページにアクセスできます。
また、Oracle Enterprise Managerのクラスタ・データベースの「パフォーマンス」ページには、データベースのパフォーマンス統計のサマリーが表示されます。統計は、グラフのクラスタ・データベース内のすべてのインスタンス間でロールアップされます。グラフの横にあるリンクを使用すると、より詳細な情報を取得して、次のタスクを実行できます。
パフォーマンスの問題の原因の特定。
リソースを追加または再分散する必要があるかどうかの判別。
SQL計画およびスキーマのチューニングによる最適化。
パフォーマンスの問題の解決
クラスタ・データベースの「パフォーマンス」ページには、次のグラフが含まれます。
「クラスタ・ホストのロード平均」グラフ: クラスタ・データベースの「パフォーマンス」ページの「クラスタ・ホストのロード平均」グラフには、データベース外部で発生する可能性がある問題が表示されます。このグラフには、過去1時間のクラスタで使用可能なノードの最大ロード値、平均ロード値および最小ロード値が表示されます。
「グローバル・キャッシュ・ブロックのアクセス待機時間」グラフ: 各クラスタ・データベース・インスタンスのシステム・グローバル領域(SGA)には、独自のバッファ・キャッシュが存在します。キャッシュ・フュージョンの使用によって、Oracle RAC環境で各インスタンスのバッファ・キャッシュが論理的に結合され、論理的に結合された単一のキャッシュにデータが存在する場合と同様に、データベース・インスタンスでデータを処理できます。
「平均アクティブ・セッション」グラフ: クラスタ・データベースの「パフォーマンス」ページの「平均アクティブ・セッション」グラフには、データベース内で発生する可能性がある問題が表示されます。「カテゴリ」(待機クラスという)には、CPUやディスクI/Oなどのリソースを使用しているデータベースの数が表示されます。CPU時間と待機時間を比較すると、他のプロセスで保留されている可能性のあるリソースを待機している時間ではなく、有効な作業に費やされているレスポンス時間を判別できます。
「データベース・スループット」グラフ: 「データベース・スループット」グラフは、「平均アクティブ・セッション」グラフに表示される任意のリソース競合を要約する他、ユーザーやアプリケーションのためにデータベースが実行中の作業の量を示します。「1秒当たり」ビューは、1秒当たりのログオン数に対するトランザクションの数、REDOサイズに対する物理読取りの量を示します。「1トランザクション当たり」ビューは、トランザクション当たりのREDOサイズに対する物理読取りの量を示します。「ログオン」は、データベースにログオンしているユーザー数を示します。
また、クラスタ・データベースの「パフォーマンス」ページの「トップ・アクティビティ」ドリルダウン・メニューでは、待機イベント、サービスおよびインスタンスごとのアクティビティを参照できます。さらに、グラフのスライダーで前のPoint-in-Timeへ移動することによって、SQLおよびセッションの詳細を確認することもできます。
関連項目: 『Oracle Database 2日でReal Application Clustersガイド』 |
この項には次のトピックが含まれます:
クラスタ状態モニター(CHM)は、オペレーティング・システムのリアルタイム・メトリックをCHMリポジトリに格納し、これは、後でクラスタに問題が発生したときに、Oracleサポートの支援のもとでトリアージに使用できます。
この項ではCHMについて説明します。内容は次のとおりです。
システム監視サービス
各ノードには、1つのシステム監視サービスがあります。システム監視サービス(osysmond
)は、監視して、データをクラスタ・ログ出力サービスに送信するオペレーティング・システム・メトリック収集サービスです。クラスタ・ログ出力サービスは、すべてのノードから情報を受信し、CHMリポジトリベースのデータベースを維持します。
クラスタ・ログ出力サービス
クラスタ・ログ出力サービス(ologgerd
)は、クラスタ内の1つのノードのみに1つ存在し、別のノードは、マスター・クラスタ・ログ出力サービスのスタンバイを保持するために、クラスタ・ログ出力サービスによって選択されます。(定められた回数の再試行後にサービスが起動できなかったことや、マスターが実行されていたノードが停止したことが原因で)マスター・クラスタ・ログ出力サービスに障害が発生すると、スタンバイが存在するノードがマスターを引き継ぎ、スタンバイ用に新しいノードを選択します。マスターは、CHMリポジトリでオペレーティング・システム・メトリック・データベースを管理し、マスター・オペレーティング・システム・メトリック・データベースのレプリカを管理するためにスタンバイと相互作用します。
デフォルトでは、CHMリポジトリは、グリッド・インフラストラクチャ・ホームに存在し、クラスタ内のノードごとに1GBのディスク領域を必要とします。このサイズと場所は調整可能であり、共有ストレージに移動することもできます。CHMリポジトリは、OCLUMONを使用して管理します。
ノードでGrid_home
/bin/diagcollection.pl
スクリプトを実行することで、クラスタのいずれのノードからでもCHMデータを収集できます。
注意:
|
クラスタ・ログ出力サービスが実行中のノードのみでデータ収集スクリプトを実行するには、次の手順を実行します。
次のコマンドを実行して、クラスタ・ログ出力サービスが実行しているノードを識別します。
$ Grid_home/bin/oclumon manage -get master
権限を持つユーザーとしてクラスタ・ログ出力サービス・ノードで次のコマンドを実行して、グリッド・インフラストラクチャ管理リポジトリで使用できるすべてのデータを収集します。
# Grid_home/bin/diagcollection.pl
diagcollection.pl
スクリプトは、次のように、chmosData_
host_name_time_stamp
.tar.gz
というファイルを作成します。
chmosData_stact29_20121006_2321.tar.gz
収集するデータの量を制限するには、次を実行します。
# Grid_home/bin/diagcollection.pl -collect -chmos
-incidenttime inc_time -incidentduration duration
前述のコマンドでは、-incidenttime
パラメータの書式はMM/DD/YYYY24HH:MM:SS
で、-incidentduration
パラメータの書式はHH:MM
です。次に例を示します。
# Grid_home/bin/diagcollection.pl -collect -crshome Grid_home -chmoshome Grid_home -chmos -incidenttime 07/14/201201:00:00 -incidentduration 00:30
OCLUMONコマンドライン・ツールは、CHMに付属しており、CHMリポジトリの問合せに使用して、指定した期間のノード固有のメトリックを表示することができます。また、oclumon
を使用して、指定した期間のノードにおけるリソースの存続期間と状態を問合せて出力します。これらの状態は、各リソース・メトリックに事前定義されているしきい値に基づいており、重大性が高い順に赤色、オレンジ色、黄色および緑色で示されます。たとえば、過去1時間にnode1
というノードのCPUが赤色の状態であった時間(秒)を示すように問い合せることができます。また、OCLUMONを使用して、デバッグ・レベルの変更、CHMバージョンの問合せ、メトリック・データベース・サイズの変更など、様々な管理タスクを実行できます。
この項では、次のOCLUMONコマンドについて説明します。
oclumon debug
コマンドを使用して、CHMサービスのログ・レベルを設定します。
構文
oclumon debug [log daemon module:log_level] [version]
パラメータ
表H-1 oclumon debugコマンドのパラメータ
パラメータ | 説明 |
---|---|
log daemon module:log_level |
デーモンのログ・レベルおよびデーモン・モジュールを変更する場合に、このオプションを使用します。サポートされているデーモンは次のとおりです。 osysmond ologgerd client all
サポートされているデーモン・モジュールは次のとおりです。 osysmond : CRFMOND 、CRFM およびallcomp ologgerd : CRFLOGD 、CRFLDBDB 、CRFM およびallcomp client : OCLUMON 、CRFM およびallcomp all : CRFM,allcomp
サポートされている |
version |
デーモンのバージョンを表示する場合に、このオプションを使用します。 |
例
次の例では、システム監視サービス(osysmond
)のログ・レベルを設定します。
$ oclumon debug log osysmond CRFMOND:3
oclumon dumpnodeview
コマンドを使用して、ノード・ビューの形式でシステム監視サービスからログ情報を表示します。
ノード・ビューは、ある時点のノードに対してCHMが収集したすべてのメトリックの集合です。CHMでは、各ノードに対して1秒に1回のメトリックの収集が試行されます。一部のメトリックは静的ですが、その他のメトリックは動的です。
詳細な出力を表示する場合、ノード・ビューは次の7つのビューで構成されています。
TOP CONSUMERS: 消費する上位のプロセスを次の形式でリストします。
metric_name: 'process_name(process_identifier) utilization'
PROCESSES: PID、名前、スレッド数、メモリー使用量、ファイル記述子の数などのプロセス・メトリックをリストします。
DEVICES: ディスクの読取り速度および書込み速度、キューの長さ、I/O当たりの待機時間などのデバイス・メトリックをリストします。
NICS: ネットワークの受信速度および送信速度、有効バンド幅、エラー率などのネットワーク・インタフェース・カードのメトリックをリストします。
SYSTEMビューおよびTOP CONSUMERSビューのみを含むサマリー・レポートを生成できます。
「メトリックの説明」に、前述のリストの各ビューに関連付けられたすべてのメトリックの説明を示します。
例H-1に、ノード・ビューの例を示します。
構文
oclumon dumpnodeview [[-allnodes] | [-n node1 node2] [-last "duration"] | [-s "time_stamp" -e "time_stamp"] [-v] [-warning]] [-h]
パラメータ
表H-2 oclumon dumpnodeviewコマンドのパラメータ
パラメータ | 説明 |
---|---|
-allnodes |
クラスタ内のすべてのノードのノード・ビューをダンプするには、このオプションを使用します。 |
-n node1 node2 |
ノード・ビューをダンプする1つのノード(または、空白区切りのリストで複数のノード)を指定します。 |
-last "duration"
|
最後のメトリックを取得する時間(二重引用符( "23:05:00" |
-s "time_stamp" -e "time_stamp" |
"2011-05-10 23:05:00" 注意: 範囲を得るには、これらの2つのオプションの両方を指定する必要があります。 |
-v |
ノード・ビューの詳細出力を表示します。-vを指定しない場合、SYSTEMのみが表示されます。 |
-warning |
警告を含むノード・ビューのみを出力するには、このオプションを使用します。 |
-h |
|
使用上の注意
デフォルトでは、ノード・ビューが連続的にダンプされます。連続的な表示を停止するには、Linuxでは[Ctrl]+[C]、Windowsでは[Esc]を使用します。
ノード・ビューのダンプを取得するには、ローカル・システム監視サービス(osysmond
)およびクラスタ・ログ出力サービス(ologgerd
)の両方が実行されている必要があります。
例
次の例では、過去12時間に収集された、node1
、node2
およびnode3
のノード・ビューをダンプします。
$ oclumon dumpnodeview -n node1 node2 node3 -last "12:00:00"
次の例では、過去15分間に収集された、すべてのノードのノード・ビューを表示します。
$ oclumon dumpnodeview -allnodes -last "00:15:00"
メトリックの説明
この項では、次の表にリストされた、ノード・ビューを構成する7つの各ビューのメトリックについて説明します。
表H-3 SYSTEMビューのメトリックの説明
メトリック | 説明 |
---|---|
#pcpus |
システム内の物理CPUの数 |
#vcpus |
論理演算ユニットの数 |
chipname |
CPUの種類 |
cpuht |
CPUのハイパースレッディングが有効(Y)または無効(N) |
cpu |
現在のサンプル間隔内での処理装置ごとの平均CPU使用率(%)。 |
cpuq |
現在のサンプル間隔内で、実行キューで待機中のプロセスの数 |
physmemfree |
RAMの空き容量(KB) |
physmemtotal |
使用可能なRAMの合計容量(KB) |
mcache |
ファイル・バッファに使用される物理RAMの量にキャッシュ・メモリーとして使用される物理RAMの量を加えたもの(KB) 注意: このメトリックは、SolarisまたはWindowsシステムでは使用できません。 |
swapfree |
スワップ・メモリーの空き容量(KB) |
swaptotal |
物理スワップ・メモリーの合計容量(KB) |
ior |
現在のサンプル間隔内での平均の合計ディスク読取り速度(KB/秒) |
iow |
現在のサンプル間隔内での平均の合計ディスク書込み速度(KB/秒) |
ios |
現在のサンプル間隔内での平均の合計ディスクI/O操作速度(I/O操作/秒) |
swpin |
現在のサンプル間隔内での平均スワップ・イン率(KB/秒) 注意: このメトリックは、Windowsシステムでは使用できません。 |
swpout |
現在のサンプル間隔内での平均スワップ・アウト率(KB/秒) 注意: このメトリックは、Windowsシステムでは使用できません。 |
pgin |
現在のサンプル間隔内での平均ページ・イン率(ページ/秒) |
pgout |
現在のサンプル間隔内での平均ページ・アウト率(ページ/秒) |
netr |
現在のサンプル間隔内での平均の合計ネットワーク受信速度(KB/秒) |
netw |
現在のサンプル間隔内での平均の合計ネットワーク送信速度(KB/秒) |
procs |
プロセスの数 |
rtprocs |
リアルタイム・プロセスの数 |
#fds |
オープン・ファイル記述子の数 Windows上のオープンしているハンドルの数 |
#sysfdlimit |
ファイル記述子の数に対するシステム制限 注意: このメトリックは、Windowsシステムでは使用できません。 |
#disks |
ディスクの数 |
#nics |
ネットワーク・インタフェース・カードの数 |
nicErrors |
現在のサンプル間隔内での平均の合計ネットワーク・エラー率(エラー/秒) |
表H-4 PROCESSESビューのメトリックの説明
メトリック | 説明 |
---|---|
name |
実行可能なプロセスの名前 |
pid |
オペレーティング・システムによって割り当てられたプロセス識別子 |
#procfdlimit |
このプロセスのファイル記述子の数に対する制限 注意: このメトリックは、Windows、Solaris、AIXおよびHP-UXシステムでは使用できません。 |
cpuusage |
プロセスのCPU使用率(%) 注意: 使用率の最大値は、処理装置の数の100倍です。 |
memusage |
プロセスのプライベート・メモリー使用量(KB) |
shm |
プロセスの共有メモリー使用量(KB) 注意: このメトリックは、Windows、SolarisおよびAIXシステムでは使用できません。 |
workingset |
プログラムのワーキング・セット(KB) 注意: このメトリックは、Windowsでのみ使用可能です。 |
#fd |
このプロセスでオープンしているファイル記述子の数 Windows上のこのプロセスでオープンしているハンドルの数 |
#threads |
このプロセスで作成されたスレッドの数 |
priority |
プロセス優先度 |
nice |
プロセスの正常値 |
表H-5 DEVICESビューのメトリックの説明
メトリック | 説明 |
---|---|
ior |
現在のサンプル間隔内での平均のディスク読取り速度(KB/秒) |
iow |
現在のサンプル間隔内での平均のディスク書込み速度(KB/秒) |
ios |
現在のサンプル間隔内での平均のディスクI/O操作速度(I/O操作/秒) |
qlen |
現在のサンプル間隔内で待機状態のI/Oリクエストの数 |
wait |
現在のサンプル間隔内でのI/O当たりの平均待機時間(ミリ秒) |
type |
適用可能な場合は、デバイスの使用目的を示します。表示される値は、 |
表H-6 NICSビューのメトリックの説明
メトリック | 説明 |
---|---|
netrr |
現在のサンプル間隔内での平均のネットワーク受信速度(KB/秒) |
netwr |
現在のサンプル間隔内での平均のネットワーク送信速度(KB/秒) |
neteff |
現在のサンプル間隔内での平均の有効バンド幅(KB/秒) |
nicerrors |
現在のサンプル間隔内での平均エラー率(エラー/秒) |
pktsin |
現在のサンプル間隔内での平均の受信パケット率(パケット/秒) |
pktsout |
現在のサンプル間隔内での平均の発信パケット率(パケット/秒) |
errsin |
現在のサンプル間隔内での受信パケットの平均エラー率(エラー/秒) |
errsout |
現在のサンプル間隔内での発信パケットの平均エラー率(エラー/秒) |
indiscarded |
現在のサンプル間隔内での受信パケットの平均ドロップ率(パケット/秒) |
outdiscarded |
現在のサンプル間隔内での発信パケットの平均ドロップ率(パケット/秒) |
inunicast |
現在のサンプル間隔内での平均のユニキャスト・パケット受信率(パケット/秒) |
type |
PUBLICまたはPRIVATE |
innonunicast |
平均のマルチキャスト・パケット受信率(パケット/秒) |
latency |
このネットワーク・インタフェース・カードの推定待機時間(ミリ秒) |
表H-7 FILESYSTEMSビューのメトリックの説明
メトリック | 説明 |
---|---|
name |
ファイルシステムの名前。 |
mount |
ファイルシステムがマウントされるマウント・ポイント |
type |
マウントされるファイルシステムのタイプ、Local、NTFSまたはEXT2のいずれか |
total |
領域の合計容量(KB) |
used |
使用済領域の量(KB) |
available |
使用可能な領域の量(KB) |
used% |
使用済領域の割合(%) |
mft% |
マスター・ファイル表の使用率(%) |
ifree% |
空きファイル・ノードの割合(%) 注意: このメトリックは、Windowsシステムでは使用できません。 |
表H-8 PROTOCOL ERRORSビューのメトリックの説明脚注1
メトリック | 説明 |
---|---|
IPHdrErr |
IPv4ヘッダー内のエラーのため破棄された入力データグラムの数 |
IPAddrErr |
IPv4ヘッダーの宛先フィールド内のIPv4アドレスがこのエンティティで受信できる有効なアドレスではなかったため破棄された入力データグラムの数 |
IPUnkProto |
正常に受信されたものの、不明またはサポートされていないプロトコルのため破棄された、ローカルにアドレス指定されたデータグラムの数 |
IPReasFail |
IPv4の再アセンブリ・アルゴリズムによって検出された障害の数 |
IPFragFail |
フラグメンテーション・エラーのため破棄されたIPv4データグラムの数 |
TCPFailedConn |
TCP接続がSYN-SENT状態またはSYN-RCVD状態からCLOSED状態に直接遷移した回数と、TCP接続がSYN-RCVD状態からLISTEN状態に直接遷移した回数 |
TCPEstRst |
TCP接続がESTABLISHED状態またはCLOSE-WAIT状態からCLOSED状態に直接遷移した回数 |
TCPRetraSeg |
再送信されたTCPセグメントの合計数 |
UDPUnkPort |
宛先ポートにアプリケーションが存在しなかった受信済UDPデータグラムの合計数 |
UDPRcvErr |
宛先ポートにアプリケーションが存在しないこと以外の理由で配信できなかった受信済UDPデータグラムの数 |
脚注1 すべてのプロトコル・エラーは、システムの起動時以降の累積値です。
例H-1 ノード・ビュー例
---------------------------------------- Node: node1 Clock: '07-17-13 23.33.25' SerialNo:34836 ---------------------------------------- SYSTEM: #pcpus: 12 #vcpus: 12 cpuht: N chipname: Intel(R) cpu: 2.43 cpuq: 2 physmemfree: 56883116 physmemtotal: 74369536 mcache: 13615352 swapfree: 18480408 swaptotal: 18480408 ior: 170 iow: 37 ios: 37 swpin: 0 swpout: 0 pgin: 170 pgout: 37 netr: 40.301 netw: 57.211 procs: 437 rtprocs: 33 #fds: 15008 #sysfdlimit: 6815744 #disks: 9 #nics: 5 nicErrors: 0 TOP CONSUMERS: topcpu: 'osysmond.bin(9103) 2.59' topprivmem: 'java(26616) 296808' topshm: 'ora_mman_orcl_4(32128) 1222220' topfd: 'ohasd.bin(7594) 150' topthread: 'crsd.bin(9250) 43' PROCESSES: name: 'mdnsd' pid: 12875 #procfdlimit: 8192 cpuusage: 0.19 privmem: 9300 shm: 8604 #fd: 36 #threads: 3 priority: 15 nice: 0 name: 'ora_cjq0_rdbms3' pid: 12869 #procfdlimit: 8192 cpuusage: 0.39 privmem: 10572 shm: 77420 #fd: 23 #threads: 1 priority: 15 nice: 0 name: 'ora_lms0_rdbms2' pid: 12635 #procfdlimit: 8192 cpuusage: 0.19 privmem: 15832 shm: 49988 #fd: 24 #threads: 1 priority: 15 nice: 0 name: 'evmlogger' pid: 32355 #procfdlimit: 8192 cpuusage: 0.0 privmem: 4600 shm: 8756 #fd: 9 #threads: 3 priority: 15 nice: 0 . . . DEVICES: xvda ior: 0.798 iow: 193.723 ios: 33 qlen: 0 wait: 0 type: SWAP xvda2 ior: 0.000 iow: 0.000 ios: 0 qlen: 0 wait: 0 type: SWAP xvda1 ior: 0.798 iow: 193.723 ios: 33 qlen: 0 wait: 0 type: SYS NICS: lo netrr: 35.743 netwr: 35.743 neteff: 71.486 nicerrors: 0 pktsin: 22 pktsout: 22 errsin: 0 errsout: 0 indiscarded: 0 outdiscarded: 0 inunicast: 22 innonunicast: 0 type: PUBLIC eth0 netrr: 7.607 netwr: 1.363 neteff: 8.971 nicerrors: 0 pktsin: 41 pktsout: 18 errsin: 0 errsout: 0 indiscarded: 0 outdiscarded: 0 inunicast: 41 innonunicast: 0 type: PRIVATE latency: <1 FILESYSTEMS: mount: / type: rootfs total: 155401100 used: 125927608 available: 21452240 used%: 85 ifree%: 93 [ORACLE_HOME CRF_HOME rdbms2 rdbms3 rdbms4 has51] mount: /scratch type: ext3 total: 155401100 used: 125927608 available: 21452240 used%: 85 ifree%: 93 [rdbms2 rdbms3 rdbms4 has51] mount: /net/adc6160173/scratch type: ext3 total: 155401100 used: 125927608 available: 21452240 used%: 85 ifree%: 93 [rdbms2 rdbms4 has51] PROTOCOL ERRORS: IPHdrErr: 0 IPAddrErr: 19568 IPUnkProto: 0 IPReasFail: 0 IPFragFail: 0 TCPFailedConn: 931776 TCPEstRst: 76506 TCPRetraSeg: 12258 UDPUnkPort: 29132 UDPRcvErr: 148
oclumon manage
コマンドを使用して、システム監視サービスからログ情報を表示します。
構文
oclumon manage [[-repos {resize size | changesize memory_size | reploc new_location [[-maxtime size] | [-maxspace memory_size]]}] | [-get key1 key2 ...]]
パラメータ
表H-9 oclumon manageコマンドのパラメータ
パラメータ | 説明 |
---|---|
-repos {resize size | changesize memory_size | reploc new_location [[-maxtime size | -maxspace memory_size]] |
次のCHMリポジトリ関連オプションを指定するには、
|
-get key1 key2 ... |
次のキーワードを使用してCHMリポジトリ情報を取得する場合に、このオプションを使用します。 repsize : CHMリポジトリの現在のサイズ(秒)reppath : CHMリポジトリまでのディレクトリ・パスmaster : マスター・ノードの名前replica : スタンバイ・ノードの名前
|
-h |
|
使用上の注意
CHMリポジトリのサイズを変更するには、ローカル・システム監視サービスとマスター・クラスタ・ログ出力サービスが実行されている必要があります。
例
次の例では、コマンドと出力例を示します。
$ oclumon manage -repos reploc /shared/oracle/chm
前述の例では、CHMリポジトリが共有ストレージに移動されます。
$ oclumon manage -get reppath CHM Repository Path = /opt/oracle/grid/crf/db/node1 Done $ oclumon manage -get master Master = node1 done $ oclumon manage -get repsize CHM Repository Size = 86400 Done
Oracle Databaseでは、統合ログ・ディレクトリ構造を使用して、Oracle Clusterwareコンポーネントのログ・ファイルが統合されます。この統合構造は、診断情報の収集を簡素化し、データの取得および問題の分析に役立ちます。
アラート・ファイルは、表H-10に示すディレクトリ構造に格納されます。
表H-10 Oracle Clusterwareコンポーネントのログ・ファイルの場所
コンポーネント | ログ・ファイルの場所脚注1 |
---|---|
システム監視サービスおよびクラスタ・ログ出力サービスは、それぞれ次の場所にログ情報を記録します。 Grid_home/log/host_name/crfmond |
|
Oracle Database Quality of Service Management(DBQOS) |
Oracle Database QoS Management Grid Operations Managerのログ:
Grid_home/oc4j/j2ee/home/log/dbwlm/auditing
Oracle Database QoS Managementのトレース・ログ:
Grid_home/oc4j/j2ee/home/log/dbwlm/logging
|
|
|
|
|
クラスタ時刻同期化サービス(CTSS) |
|
グリッド・プラグ・アンド・プレイ |
|
マルチキャスト・ドメイン名サービス・デーモン(MDNSD) |
|
Oracle Cluster Registryツール(OCRDUMP、OCRCHECK、OCRCONFIG)は、次の場所にログ情報を記録します。脚注2
クラスタ・レディ・サービスは、次の場所にOracle Cluster Registryのログ情報を記録します。
|
|
Oracleグリッド・ネーミング・サービス(GNS) |
|
Oracle高可用性サービス・デーモン(OHASD) |
|
Oracle Automatic Storage Management Cluster File System (Oracle ACFS) |
|
evmdによって生成された |
|
|
|
Oracle RAC RACG |
Oracle RAC High Availabilityのトレース・ファイルは、次の2つの場所にあります。 Grid_home/log/host_name/racg $ORACLE_HOME/log/host_name/racg コア・ファイルは、ログ・ディレクトリのサブディレクトリ内にあります。各RACG実行可能ファイルには、その実行可能ファイルに排他的に割り当てられたサブディレクトリがあります。RACG実行可能ファイルのサブディレクトリの名前は、実行可能ファイルの名前と同じです。 さらに、ログ情報は、VIPの場合は |
サーバー・マネージャ(SRVM) |
|
ディスク監視デーモン( |
|
グリッド・プロセス間通信デーモン(GIPCD) |
|
脚注1: ディレクトリ構造は、Linux、UNIXおよびWindowsシステムで同一です。
脚注2: ロギングの量を変更するには、Grid_home
/srvm/admin/ocrlog.ini
ファイルのパスを編集します。
次の手順を使用して、ゾーン委任をテストします。
root
として次のコマンドを実行し、GNS VIPを起動します。
# crsctl start ip -A IP_name/netmask/interface_name
interface_name
は、パブリック・ネットワークのパブリック・インタフェースおよびネットマスクである必要があります。
次のコマンドを実行し、GNS VIPでテストDNSサーバーを起動します(ポート番号が1024より小さい場合はroot
としてこのコマンドを実行する必要があります)。
# crsctl start testdns -address address [-port port]
このコマンドによって、指定したIPおよびポートで、DNSが転送したパケットをリスニングするテストDNSサーバーが起動されます。
root
として次のコマンドを実行し、GNS VIPが他のノードから到達可能であることを確認します。
crsctl status ip -A IP_name
次のコマンドを実行し、直接DNSサーバーに問い合せます。
crsctl query dns -name name -dnsserver DNS_server_address
このコマンドは、次のエラーが発生して失敗します。
CRS-10023: 名前asdf.foo.comのドメイン名参照に失敗しました。オペレーティング・システム・エラー: ホスト名参照エラー
Grid_home
/log/
host_name
/client/odnsd_*.log
を参照して、問合せがテストDNSサーバーで受信されたかどうかを確認します。これにより、DNS問合せがファイアウォールによってブロックされていないことが確認されます。
次のコマンドを実行し、GNSドメイン問合せのDNS委任を問い合せます。
crsctl query dns -name name
注意: この手順と前の手順の違いは、-dnsserver DNS_server_address オプションを指定しないことのみです。これにより、コマンドは/etc/resolv.conf で構成されているネーム・サーバーに問い合せます。前の手順と同様に、コマンドは同じエラーが発生して失敗します。再度、odnsd*.log を参照して、odnsd で問合せが受信されたことを確認します。手順5が成功し、手順6が成功しない場合は、DNS構成を確認する必要があります。 |
次のコマンドを実行し、テストDNSサーバーを停止します。
crsctl stop testdns -address address
root
として次のコマンドを実行し、GNS VIPを停止します。
crsctl stop ip -A IP_name/netmask/interface_name
Oracleトレース・ファイル・アナライザ(TFA)コレクタは、Oracle Clusterware、Oracle Grid InfrastructureおよびOracle RACシステムの診断データ収集を簡素化し、ターゲット診断を収集するためのツールです。TFAには、診断データを収集およびパッケージ化し、診断情報の収集を集中化および自動化する機能があります。
TFAは、Oracle Database 11gリリース2 (11.2.0.4)のインストール時、またはOracle Database 11gリリース2 (11.2.0.4)へのアップグレード時に、Oracle Grid Infrastructureホームにインストールされます。TFAデーモンは、関連トレース・ファイル・ディレクトリを検出し、検出されたディレクトリ内のトレース・ファイルを分析して、ファイル・タイプ(たとえば、データベース・トレース・ファイルまたはログ・ファイル、またはOracle Clusterwareトレース・ファイルまたはログ・ファイル)と、それらのファイルの最初と最後のタイムスタンプを特定します。TFAは、このデータを、BerkeleyデータベースのGridホーム所有者のORACLE_BASE
ディレクトリに格納します。
注意: Oracle Database 11gリリース2 (11.2.0.4)でTFAはサポートされません。 |
TFAデーモンは、追加する新しいトレース・ディレクトリを定期的にチェックし(新しいデータベース・インスタンスを作成した場合など)、トレース・ファイル・メタデータの更新が必要かどうかも定期的にチェックします。TFAは、診断データ収集時に、このメタデータを使用します。
TFAによる診断収集は、オンデマンドまたは自動のいずれか2つの方法で実行されます。
tfactl set
を使用して、トレース・ファイル内の一定のエラー・セットの検出時に、診断の自動収集を有効にします。
tfactl diagcollect
コマンドは、すべてのコンポーネントの、特定の時間範囲内のトリムされたトレース・ファイルを収集します。
この項には次のトピックが含まれます:
TFAは、ノードが起動されるたびに自動的に開始します。TFAを手動で開始または停止するには、次のコマンドを使用します。
/etc/init.d/init.tfa start
: TFAデーモンを起動します
/etc/init.d/init.tfa stop
: TFAデーモンを停止します
/etc/init.d/init.tfa restart
: TFAデーモンを停止し、その後起動します
/etc/init.d/init.tfa shutdown
: TFAデーモンを停止し、適切なオペレーティング・システム構成からエントリを削除します
TFAデーモンが失敗した場合は、オペレーティング・システムによって自動的に再起動されます。
TFA制御ユーティリティTFACTLは、TFAのためのコマンドライン・インタフェースで、Grid_home
/tfa/bin
ディレクトリに格納されています。通常、root
アクセスのみ可能なトレース・ファイルにアクセスできるように、TFACTLはroot
またはsudo
で実行する必要があります。一部のコマンド(tfactl host add
など)には、root
アクセスが必須です。
TFACTLコマンドに、-help
フラグを追加すると、オンラインの使用方法を取得できます。
この項では、次のTFACTLコマンドについて説明します。
tfactl print
コマンドを使用して、Berkeleyデータベースから情報を表示します。
構文
tfactl print [status | config | directories | hosts | actions | repository | cookie]
パラメータ
表H-11 tfactl printコマンドのパラメータ
パラメータ | 説明 |
---|---|
status |
クラスタ内のすべてのノードにわたってTFAの状態を表示します。また、TFAのバージョンおよび実行中のポートも表示します。 |
config |
現在のTFA構成設定を表示します。 |
directories |
TFAがトレース・ファイルまたはログ・ファイル・データをスキャンするすべてのディレクトリを表示し、データベース、Oracle ASMおよびインスタンスに割り当てられているトレース・ディレクトリの場所を表示します。 |
hosts |
TFAクラスタの一部で、クラスタ全体のコマンドを受信できるホストを表示します。 |
actions |
TFAに送信される、診断の収集などのすべてのアクションを表示します。デフォルトでは、 |
repository |
リポジトリ・ディレクトリの現在の場所および使用済領域の量を表示します。最初、リポジトリ・ディレクトリの最大サイズは、10GBまたは使用可能なファイルシステム領域の50%のいずれか小さい方になります。最大サイズを超えた場合またはファイルシステム領域が1GB以下になった場合、TFAは操作を一時停止し、リポジトリがクローズされます。 |
cookie |
|
例
tfactl print config
では次のような出力が戻されます。
Configuration parameter Value ------------------------------------------------------------ TFA Version 2.5.1.5 Automatic diagnostic collection OFF Trimming of files during diagcollection ON Repository current size (MB) in node1 526 Repository maximum size (MB) in node1 10240 Trace Level 1
前述の出力例では、次のとおりです。
Automatic diagnostic collection
: ON
の場合(デフォルトはOFF
)、アラート・ログのスキャンでログ内に特定のイベントが検出されたときに、診断収集がトリガーされます。
Trimming of files during diagcollection
: TFAで、特定の時間範囲内のデータのみを含めるために、大規模なファイルの切捨てを行うかどうかを指定します。OFF
の場合、自動診断収集でのトレース・ファイルの切捨ては発生しません。
Repository current size in MB
: リポジトリの現在の使用量です。
Repository maximum size in MB
: リポジトリ内の記憶領域の最大サイズです。最初、最大サイズは、10GBまたは使用可能なファイルシステム領域の50%のいずれか小さい方に設定されています。
Trace Level
: デフォルトは1
で、値を2
、3
および4
にすると詳細度が高まります。トレース・レベルは実行中のTFAデーモンに対して動的に設定できますが、トレース・レベルを上げるとTFAのパフォーマンスに大幅に影響するため、My Oracle Supportからリクエストがあった場合にのみ行います。
tfactl purge
コマンドを使用して、TFAリポジトリから特定の時間より古い診断収集を削除します。
構文
tfactl purge -older number[h | d]
数値の後にh
またはd
(それぞれ、時間数と日数)を指定して、特定の時間制約より古いファイルを削除します。次に例を示します。
# tfactl purge -older 30d
前述のコマンドでは、30日間より古いファイルが削除されます。
tfactl directory
コマンドを使用して、分析されたトレース・ファイルまたはログ・ファイルを格納するディレクトリの一覧にディレクトリを追加したり、一覧からディレクトリを削除できます。また、このコマンドを使用して、ディレクトリ権限を変更できます。自動検出によってディレクトリが追加されるとパブリックとして追加され、そのディレクトリ内のすべてのファイルは、tfactl diagcollect
コマンドを実行する権限を持つすべてのユーザーによって収集可能になります。これは、ユーザーにroot
以外にsudo
によってTFACTLコマンドを実行する権限を与えている場合に重要です。ディレクトリがプライベートとマークされている場合、TFAはTFACTLコマンドを実行しているユーザーを判別し、ユーザーにディレクトリ内のファイルを参照する権限があるか検証してから、ファイルの収集を許可します。
注意: ユーザーがTFAに追加できるのは読取り権限を持つディレクトリのみで、また、TFAの自動収集は(設定されている場合)root として実行されるため、常に、使用可能なすべてのファイルを収集できます。 |
構文
tfactl directory [add directory | remove directory | modify directory -private | -public]
パラメータ
表H-12 tfactl directoryコマンドのパラメータ
パラメータ | 説明 |
---|---|
add directory
|
特定のディレクトリを追加します |
remove directory
|
特定のディレクトリを削除します |
modify directory
-private | -public
|
特定のディレクトリをプライベートまたはパブリックに変更して、情報の収集を、特定のオペレーティング・システム権限を持つユーザーにのみ許可したり( |
使用上の注意
Berkeleyデータベースにすべてのトレース・ディレクトリ名を追加し、TFAがそのディレクトリ内のファイル・メタデータを収集できるようにする必要があります。検出プロセスでは、ほとんどのディレクトリが検出されますが、新しいまたは未検出のディレクトリが必要な場合tfactl directory
コマンドを使用して、手動でこれらのファイルを追加できます。TFACTLを使用してディレクトリを追加する場合、TFAは、ディレクトリの対象がデータベース、Oracle Clusterware、オペレーティング・システム・ログまたはその他のコンポーネントのどれか、および対象がデータベースかインスタンスかを判別しようと試みます。TFAがこの情報を判別できない場合、エラーが戻され、次のような情報を入力するように求められます。
# tfactl directory add /tmp Failed to add directory to TFA. Unable to determine parameters for directory: /tmp Please enter component for this Directory [RDBMS|CRS|ASM|INSTALL|OS|CFGTOOLS] : RDBMS Please enter database name for this Directory :MYDB Please enter instance name for this Directory :MYDB1
tfactl host
コマンドを使用して、TFAクラスタにホストを追加したり、TFAクラスタからホストを削除できます。
構文
tfactl host [add host_name | remove host_name]
次の例に示すように、追加または削除するホスト名を指定します。
# tfactl host add myhost.domain.com
使用上の注意
tfactl host add
コマンドでは、ネットワーク上のその他のノードがローカルTFAに通知されます。ホストが追加されると、TFAはそのホストに接続し、そのホスト上でTFAが実行中の場合、両方のホストでホスト・リストが同期されます。TFAは、Cookieを使用してホストの追加を認証します。追加するホストが正しいCookieを持たない場合、クラスタ内の既存のホストからCookieを取得し、次の例に示すように、追加するホストに設定する必要があります。
#tfactl host add node2 Failed to add host: node2 as the TFA cookies do not match. To add the host successfully, try the following steps: 1. Get the cookie in node1 using: ./tfa_home/bin/tfactl print cookie 2. Set the cookie from Step 1 in node2 using: ./tfa_home/bin/tfactl set cookie=<COOKIE> 3. After Step 2, add host again: ./tfa_home/bin/tfactl host add node2
ホストが正常に追加されると、Berkeleyデータベースに登録されているすべてのノードでクラスタ全体のコマンドがアクティブになります。
tfactl set
コマンドを使用して、TFAの実行方法を調整できます。
構文
tfactl set [autodiagcollect=ON | OFF | cookie=Xn | trimfiles=ON | OFF | tracelevel=1 | 2 | 3 | 4 | reposizeMB=number | repositorydir=directory] [-c]
パラメータ
表H-13 tfactl setコマンドのパラメータ
パラメータ | 説明 |
---|---|
autodiagcollect=ON | OFF |
TFAクラスタのすべてのノードに対して自動収集を設定するには、 |
cookie=UID
|
|
trimfiles=ON | OFF |
注意: |
tracelevel=1 | 2 | 3 | 4 |
My Oracle Supportで指示されないかぎり、トレース・レベルは変更しないでください。 |
-c |
このパラメータを指定して、設定をTFA構成内のすべてのノードに伝播します。 |
自動診断収集
TFAが最初にトレース・ファイル・メタデータを収集した後、特定の文字列が発生した場合に処理できるように、デーモンはtail
を使用して、アラート・ログと判別されるすべてのファイルを監視します。
デフォルトでは、これらのログは、データベース・アラート・ログ、Oracle ASMアラート・ログおよびOracle Clusterwareアラート・ログです。Berkeleyデータベースに保存されているログ内で特定のパターンが発生した場合、自動診断収集が実行されます。
実際に収集されるものは、一致するパターンによって異なります。TFAは、一致するパターンの情報の格納のみを行う場合や、ローカルの診断収集を開始する場合があります。TFAは、ログを常に監視しデータベースに情報を収集しますが、自動診断収集は、最初にtfactl set
コマンドを使用して有効にした場合のみ発生します。
tfactl diagcollect
コマンドを使用して、オンデマンドの診断収集を実行できます。いくつかの異なるパラメータを設定して、収集の大きさや詳細度を指定できます。収集するデータに対して、あるインシデントの特定の時刻を指定したり、時間範囲を指定して、関連データを含むファイル全体を収集するか、それらのファイルの中からある時間間隔のデータのみを収集するかを決定できます。
注意: パラメータを指定しない場合、tfactl diagcollect コマンドは、最近4時間にファイルが更新されたすべてのコンポーネントのすべてのノードからファイルが収集され、過剰なファイルは切捨てられます。この期間より前にインシデントが発生した場合、正しいデータ収集のためにこの項で説明するパラメータを使用してください。 |
構文
tfactl diagcollect [-all | -database all | database_1,database_2,... | -asm | -crs | -os | -install] [-node all | local | node_1,node_2,...][-tag description] [-z file_name] [-since numberh | d | -from "mmm/dd/yyyy hh:mm:ss" -to "mmm/dd/yyyy hh:mm:ss" | -for "mmm/dd/yyyy hh:mm:ss" [-nocopy] [-nomonitor]]
パラメータ
表H-14 tfactl diagcollectコマンドのパラメータ
パラメータ | 説明 |
---|---|
-all | -database all | database_1,database_2,... | -asm | -crs | -os | -install |
トレース・ファイルまたはログ・ファイルを収集する1つ以上の個別のコンポーネントを選択するか、 |
-node all | local | node_1, |
診断情報を収集するカンマ区切りのノード・リストを指定できます。デフォルト値は |
-tag description
|
このパラメータを使用すると、TFAリポジトリ内の収集に対してサブディレクトリを作成できます。 |
-z file_name
|
このパラメータを使用すると、出力ファイル名を指定できます。 |
-since numberh | d | -from "mmm/dd/yyyy hh:mm:ss" -to "mmm/dd/yyyy hh:mm:ss" | -for "mmm/dd/yyyy hh:mm:ss" |
注意: 日付と時刻の両方を指定する場合、両方の値を二重引用符( |
-nocopy |
このパラメータを使用すると、トレース・ファイルの収集が開始ノードにコピーされません。ファイルは、TFAリポジトリ内の実行ノードに残ります。 |
-nomonitor |
このパラメータを使用すると、コマンドを実行する端末にコマンドの進捗状況が表示されません。 |
例
次のコマンドでは、クラスタ全体の最近4時間に更新されたすべてのファイル(chmos
およびosw
データを含む)が切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect
次のコマンドでは、クラスタ全体の最近8時間に更新されたすべてのファイル(chmos
およびosw
データを含む)が切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect –all –since 8h
次のコマンドでは、データベース(hrdb
およびfdb
)の過去1日間に更新されたすべてのファイルが切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect -database hrdb,fdb -since 1d -z foo
次のコマンドでは、node1
およびnode2
の最近6時間に更新されたすべてのOracle Clusterwareファイル、オペレーティング・システム・ログおよびchmos
、osw
データが切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect –crs -os -node node1,node2 -since 6h
次のコマンドでは、2013年7月4日の2013年7月5日の午後9時に更新されたnode1
のすべてのOracle ASMログが切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect -asm -node node1 -from Jul/4/2013 -to "Jul/5/2013 21:00:00"
次のコマンドでは、2013年7月2日に更新されたすべてのログ・ファイルが切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect -for Jul/2/2013
次のコマンドでは、2013年7月2日午前9時から2013年7月3日午前9時の間(コマンドに指定した時刻の前後12時間)に更新されたすべてのログ・ファイルが切捨ておよび圧縮され、開始ノードに収集されます。
# tfactl diagcollect -for "Jul/2/2013 21:00:00"
ファイル内のデータまたはファイル名のパスを置換して、機密データを非表示にできます。この機能を使用するには、redaction.xml
というファイルをtfa_home
/resources
ディレクトリに置きます。TFAはredaction.xml
ファイルに含まれるデータを使用して、ファイル名および内容の文字列を置換します。redaction.xml
ファイルの書式は次のとおりです。
<replacements> <replace> <before>securestring</before> <after>nonsecurestring</after> </replace> <replace> <before>securestring2</before> <after>nonsecurestring2</after> </replace> Etc… </replacements>
Oracle Clusterwareでエラーが発生するたびに、diagcollection.pl
スクリプトを実行して、Oracle Clusterwareからトレース・ファイルに診断情報を収集します。診断によって、My Oracle Supportが問題を解決するための追加情報を取得できます。このスクリプトは次の場所から実行します。
Grid_home/bin/diagcollection.pl
注意: このスクリプトは、root ユーザーで実行する必要があります。 |
Oracle Clusterwareは、重要なイベントが発生すると、アラート・メッセージを発行します。CRSDプロセスのアラートの例を次に示します。
2009-07-16 00:27:22.074 [ctssd(12817)]CRS-2403:The Cluster Time Synchronization Service on host stnsp014 is in observer mode. 2009-07-16 00:27:22.146 [ctssd(12817)]CRS-2407:The new Cluster Time Synchronization Service reference node is host stnsp013. 2009-07-16 00:27:22.753 [ctssd(12817)]CRS-2401:The Cluster Time Synchronization Service started on host stnsp014. 2009-07-16 00:27:43.754 [crsd(12975)]CRS-1012:The OCR service started on node stnsp014. 2009-07-16 00:27:46.339 [crsd(12975)]CRS-1201:CRSD started on node stnsp014.
Linux、UNIXおよびWindowsシステム上でのこのアラート・ログの場所は、Grid_home
/log/
host_nameです。
Grid_home
は、Oracle Grid Infrastructureがインストールされている場所の名前を示します。
次に、クラスタ再構成後のOracleクラスタ時刻同期化サービス(OCTSS)の起動例を示します。
[ctssd(12813)]CRS-2403:The Cluster Time Synchronization Service on host stnsp014 is in observer mode. 2009-07-15 23:51:18.292 [ctssd(12813)]CRS-2407:The new Cluster Time Synchronization Service reference node is host stnsp013. 2009-07-15 23:51:18.961 [ctssd(12813)]CRS-2401:The Cluster Time Synchronization Service started on host stnsp014.
Oracle Database 11gリリース2(11.2)以降では、特定のOracle Clusterwareメッセージに、「(:
」および「:)
」で囲まれたテキスト識別子が含まれます。通常、この識別子は「Details in...
」で始まるメッセージ・テキストの一部で、次の例のようなOracle Clusterware診断ログ・ファイルのパスおよび名前が含まれます。この識別子はDRUID(Diagnostic Record Unique ID)と呼ばれます。
2009-07-16 00:18:44.472 [/scratch/11.2/grid/bin/orarootagent.bin(13098)]CRS-5822:Agent '/scratch/11.2/grid/bin/orarootagent_root' disconnected from server. Details at (:CRSAGF00117:) in /scratch/11.2/grid/log/stnsp014/agent/crsd/orarootagent_root/orarootagent_root.log.
DRUIDは、外部製品のメッセージを、診断ログ・ファイルのエントリおよび内部Oracle Clusterwareプログラム・コードの場所に関連付けるために使用されます。これらはユーザーには直接関係ありませんが、主に、問題を診断するときにMy Oracle Supportによって使用されます。
注意: Oracle Clusterwareでは、ログ・ファイルにファイル・ローテーション方式が使用されます。アラート・ファイル・メッセージの「Details in 」セクションで指定されているファイルで指定された参照先が見つからない場合、このファイルは、通常は*.l number で終了するロールオーバー・バージョンにロールオーバーされた可能性があります(number は01 から始まる数字で、保持されているログの数まで増分し、数の合計は、ログによって異なります)。通常、My Oracle Supportから指示されないかぎり、参照先をたどる必要はありませんが、ファイルのロールオーバー・バージョンのパスは確認することができます。ただし、ログの保存ポリシーによって、生成されたログの量に応じて古いログがパージされることになっています。 |