プライマリ・コンテンツに移動
Oracle® Clusterware管理およびデプロイメント・ガイド
11gリリース2 (11.2)
B56289-08
  目次へ移動
目次
索引へ移動
索引

前
 
次
 

A クラスタ検証ユーティリティのリファレンス

クラスタ検証ユーティリティ(CVU)は、インストール、パッチ更新、またはその他のシステム変更を行う前に、システム・チェックを実行します。CVUを使用すると、必要なシステム構成やインストール前の手順を確実に行えるようになり、Oracle Grid InfrastructureやOracle Real Application Clusters(Oracle RAC)のインストール、更新またはパッチ操作を正常に完了できます。

Oracle Clusterware 11gリリース2(11.2)では、Oracle Universal InstallerがCVUと完全に統合され、多くのCVU前提条件チェックが自動化されています。Oracle Universal Installerを実行すると、すべての前提条件チェックとこれに関連付けられたfixupスクリプトが実行されます。


関連項目:

  • CVUを管理するサーバー制御ユーティリティ(SRVCTL)の使用の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。

  • CVUを手動でインストールする方法については、『Oracle Grid Infrastructureインストレーション・ガイド』および『Oracle Real Application Clustersインストレーション・ガイド』を参照してください。



注意:

次のOracle Technology Networkを確認して、CVUの最新バージョンをダウンロードしてください。

http://www.oracle.com/technology/index.html


この付録では、CVUについて説明します。内容は次のとおりです。

クラスタ検証ユーティリティについて

この項では、CVUの使用に関連する項目について説明します。

概要

CVUは、操作のフェーズまたはステージで主なクラスタ・コンポーネントを検証できます。コンポーネントは、ディスクの空き領域などの基本的なコンポーネントの場合と、Oracle Clusterwareの整合性チェックなどの複雑なコンポーネントの場合があります。たとえば、CVUは、Oracle Clusterwareレイヤー全体の複数のOracle Clusterwareサブコンポーネントを検証できます。また、CVUは、ディスク領域、メモリー、プロセスおよびその他の重要なクラスタ・コンポーネントをチェックできます。ステージにはデータベースのインストールなどがあり、CVUはこれらのステージで、システムがOracle Real Application Clusters(Oracle RAC)のインストールのための基準を満たしているかどうかを検証できます。その他のステージには、完全に稼働しているクラスタ設定を使用したハードウェアの初期設定やシステム要件の設定などが含まれます。

表A-1に、CVUで実行できる検証を示します。

表A-1 CVUの様々な検証の実行

実行する検証 使用するCVUのコマンド

システム要件の検証

cluvfy comp sys


Oracle ACFSの検証

cluvfy stage [-pre | -post] cfs


記憶域の検証


ネットワークの検証

cluvfy stage -post hwos


接続性の検証


クラスタ時刻同期化サービスの検証

cluvfy comp clocksync


ユーザーおよび権限の検証

cluvfy comp admprv


ノードの比較および検証

cluvfy comp peer


インストールの検証


削除の検証

cluvfy stage -post nodedel


クラスタの整合性の検証

cluvfy comp clu


Oracle ClusterwareおよびOracle ASMコンポーネントの検証



使用上の注意

この項には次のトピックが含まれます:

インストール要件

CVUのインストール要件を次に示します。

  • CVUを実行するノード上には、CVUソフトウェア用に30MB以上の空き領域が必要です。

  • 各ノード上に、空き領域が25MB以上の作業ディレクトリが必要です。作業ディレクトリのデフォルトの場所は、LinuxおよびUNIXシステムの場合は/tmpで、Windowsシステムの場合はTEMP環境変数に指定されている値の場所です。CV_DESTLOC環境変数を設定すると、別の場所を指定できます。

    CVUを使用する際、ユーティリティは、必要な情報をCVUの作業ディレクトリにコピーしようとします。各ノードでの作業ディレクトリの存在が確認されます。見つからない場合は、作成が試行されます。クラスタ内のすべてのノード上にCVUの作業ディレクトリが存在するか、またはCVUを実行しているユーザーに対して各ノード上にディレクトリを作成するための適切な権限が付与されているかを確認します。

  • ローカル・ノード上のJava 1.4.1。

使用方法

CVUには、Oracleソフトウェアをインストールする前に使用するruncluvfy.sh(Windowsではruncluvfy.bat)と、cluvfy(Windowsではcluvfy.bat)の2つのスクリプトが含まれており、これらはGrid_home/binディレクトリに格納されています。runcluvfy.shスクリプトには一時変数の定義が含まれており、これによって、Oracle Grid InfrastructureまたはOracle Databaseをインストールする前の実行が可能になります。Oracle Grid Infrastructureのインストール後には、cluvfyコマンドを使用して前提条件をチェックし、その他のシステム準備状態チェックを実行します。


注意:

Oracle Universal Installerは、Oracleソフトウェアのインストール時に、cluvfyを実行してすべての前提条件をチェックします。

Oracleソフトウェアをインストールする前に、次のようにソフトウェア・インストール・メディアのマウントポイント・パスからruncluvfy.shを実行してください。

cd /mountpoint
./runcluvfy.sh options

前述の例で、options変数は選択したCVUコマンド・オプションを表します。次に例を示します。

$ cd /mnt/dvdrom
$ ./runcluvfy.sh comp nodereach -n node1,node2 -verbose

CVUコマンドを入力すると、テストのサマリーが表示されます。インストール前には、CVUコマンドに-verbose引数を使用して詳細な出力を取得することをお薦めします。-verbose引数を指定すると、個々のチェックの詳細な出力が生成されます。適用可能な場合は、各ノードの結果が表レイアウトで表示されます。

cluvfyコマンドを使用して、CVUコマンドライン・ツールを実行します。cluvfyを使用しても、クラスタ環境またはインストールされたソフトウェアに悪影響を及ぼすことはありません。cluvfyコマンドは、Oracle Clusterwareのインストール前を含む任意のタイミングで実行できます。実際には、CVUは、ハードウェアおよびオペレーティング・システムが稼働するとすぐに使用できるように設計されています。ノード上のOracle Clusterwareを必要とするコマンドを実行したときにそのノード上にOracle Clusterwareがまだインストールされていない場合には、CVUはエラーをレポートします。

CVUコマンドとともに使用するノード・リストは、ドメインを含まないホスト名のカンマ区切りのリストである必要があります。CVUがノード・リストを処理する際にはドメインは無視されます。ドメイン情報を削除した後、CVUのコマンド・エントリに重複するノード・エントリがある場合には、CVUは重複するノード・エントリを削除します。サポートされている場合、-n allオプションを使用して、特定のOracle RACのインストール環境に含まれるすべてのクラスタ・ノードを検証できます。

ネットワーク接続の検証では、CVUコマンドラインでインタフェースを指定しない場合、CVUによって、すべての使用可能なネットワーク・インタフェースが検出されます。記憶域のアクセス性の検証では、コマンドラインで特定の記憶域のIDを指定しない場合、CVUはサポートされるすべての記憶域タイプの共有記憶域を検出します。使用可能な場合、Oracle ClusterwareのホームもCVUにより検出されます。

CVUの構成ファイル

CVUの構成ファイルを使用して、CVUの実行のための特定の入力を定義できます。構成ファイルのパスは、Grid_home/cv/admin/cvu_config(Windowsプラットフォームの場合はStaging_area\clusterware\stage\cvu\cv\admin)です。このファイルをテキスト・エディタを使用して変更できます。CVUへの入力は、キー・エントリの形式で定義されています。CVUの構成ファイルを変更する場合、次の規則に従う必要があります。

  • キー・エントリの構文はname=valueです。

  • 各キー・エントリおよびキーに割り当てられた値は、1つのみのプロパティを定義します。

  • シャープ記号(#)で始まる行はコメント行であり、無視されます。

  • name=valueという構文に従っていない行は無視されます。

CVUによってサポートされるキーのリストを次に示します。

  • CV_NODE_ALL: 設定すると、Oracle Clusterwareがインストールされておらずコマンドラインで-n allオプションが使用された場合に選択する必要があるノードのリストが指定されます。デフォルトでは、このエントリはコメント・アウトされています。

  • CV_ORACLE_RELEASE: 検証を実行する必要がある特定のOracleリリース(10gR110gR211gR1または11gR2)を指定します。これを設定すると、-r releaseオプションが適用される場合であっても、このオプションを使用する必要がなくなります。デフォルト値は11gR2です。

  • CV_RAW_CHECK_ENABLED: TRUEに設定すると、LinuxおよびUnixシステム上の共有ディスクのアクセス性チェックが有効になります。この共有ディスクのアクセス性チェックには、すべてのノード上にcvuqdisk RPMパッケージ・マネージャ(rpm)がインストールされていることが必要です。デフォルトでは、このキーはTRUEに設定されており、共有ディスクのチェックが有効になっています。

  • CV_ASSUME_DISTID: このプロパティは、CVUが特定のプラットフォームまたは配布を検出またはサポートできない場合に使用されます。CVUが無効になる可能性があるため、このプロパティを変更することはお薦めしません。

  • CV_XCHK_FOR_SSH_ENABLED: TRUEに設定すると、sshを使用してユーザー等価関係を検証するためのX-Windowsチェックが有効になります。デフォルトでは、このエントリはコメント・アウトされており、X-Windowsチェックは無効になっています。

  • ORACLE_SRVM_REMOTECOPY: 設定すると、scpまたはrcpコマンドの位置を指定してCVUのデフォルト値が上書きされます。デフォルトでは、このエントリはコメント・アウトされており、CVUは/usr/bin/scpおよび/usr/sbin/rcpを使用します。

  • ORACLE_SRVM_REMOTESHELL: 設定すると、ssh/rshコマンドの位置を指定してCVUのデフォルト値が上書きされます。デフォルトでは、このエントリはコメント・アウトされており、ツールは/usr/sbin/sshおよび/usr/sbin/rshを使用します。

  • CV_ASSUME_CL_VERSION: デフォルトで、コマンドライン解析機能は、コマンドライン構文の使用方法の表示および構文の検証にcrs activeversionを使用します。このプロパティを使用して、コマンドライン構文の表示および検証用にcrs activeversion以外のバージョンを渡します。デフォルトでは、このエントリはコメント・アウトされています。

CVUは構成ファイルに定義されたキー・エントリを検出できない場合、CVUはキーの名前に一致する環境変数を検索します。環境変数が設定されている場合、CVUはその値を使用し、環境変数が設定されていない場合、CVUはこのエンティティのデフォルト値を使用します。

権限およびセキュリティ

CVUでは、現行のユーザーがインストールされたOracleソフトウェアを所有しているユーザー(oracleなど)であると想定されます。CVUコマンドのほとんどは、rootユーザーである必要はありません。

CVUヘルプの使用

cluvfyコマンドには、入力されたコマンドライン引数に基づいて使用方法を表示する状況依存ヘルプがあります。たとえば、cluvfyと入力すると、ステージおよびコンポーネントの構文について説明する、一般的な使用方法を示す高水準のテキストがCVUにより表示されます。状況依存ヘルプのコマンドのリストを次に示します。

  • cluvfy -help: CVUは、CVUコマンドの詳細情報を表示します。

  • cluvfy -version: CVUは、Oracle Clusterwareのバージョンを表示します。

  • cluvfy comp -list: CVUは、チェック可能なコンポーネントのリストと、ユーティリティが各コンポーネントをチェックする方法についての簡単な説明を表示します。

  • cluvfy comp -help: CVUは、それぞれの有効なコンポーネントをチェックするための詳細な構文を表示します。

  • cluvfy stage -list: CVUは、有効なステージのリストを表示します。

  • cluvfy stage -help: CVUは、それぞれの有効なステージをチェックするための詳細な構文を表示します。

また、任意のCVUコマンドに-helpオプションを使用することもできます。たとえば、cluvfy stage -pre nodeadd -helpを実行すると、この特定のコマンドに関する詳細情報が戻されます。

無効なCVUコマンドを入力すると、CVUによって、そのコマンドの正しい使用方法が表示されます。たとえば、cluvfy stage -pre dbinstと入力すると、dbinstステージの事前チェック・コマンドの正しい構文がCVUにより表示されます。CVUコマンドの詳細を表示するには、cluvfy -helpと入力します。

特別な項目

この項には次のトピックが含まれます:

修正スクリプトの生成

特定のCVUコマンドで-fixupフラグを指定すると、インストール前にfixupスクリプトを生成できます。また、Oracle Universal Installerでは、インストール中にfixupスクリプトを生成することもできます。その後、インストーラによって、個々のターミナル・セッションでrootとしてスクリプトを実行するように要求されます。fixupスクリプトをコマンドラインから生成した場合は、生成したスクリプトをrootとして実行できます。スクリプトを実行すると、カーネルの値が最低限必要な値に引き上げられ、必要に応じて、他のオペレーティング・システムの構成が実行されます。

デフォルトでは、修正スクリプトはLinuxおよびUNIXシステムの/tmpディレクトリ、およびWindowsシステムのTEMP環境変数に指定されている場所に生成されます。修正スクリプトの生成場所として別の場所を指定するには、cluvfy stage -pre crsinstコマンドを使用できます。次に例を示します。

cluvfy stage -pre crsinst -n node1 -fixup -fixupdir /db11202/fixit.sh

CVUを使用した、インストールの前提条件を満たしているかどうかの確認

CVUを使用して、インストールに関するシステムの前提条件が満たされているかどうかを確認できます。既存のOracleソフトウェア・インストールがあるシステムにOracle 11gリリース2(11.2)ソフトウェアをインストールする場合に、このオプションを使用します。このオプションを使用する際には、次の点に注意してください。

  • インストールの実行に使用する予定のユーザー・アカウントでCVUを実行する必要があります。CVUはrootでは実行できず、また、インストールを実行するユーザー以外のユーザーでCVUを実行すると、インストールまたはその他の構成チェックに対してユーザーおよびグループの構成の正確さが保証されません。

  • クラスタ全体のステータスのチェックを完了するには、その前にすべてのクラスタ・ノードでSSHを構成する必要があります。インストーラを使用してSSHの構成を実行するか、またはユーザー自身がクラスタ内のすべてのノード間でSSHの構成を実行できます。CVUを使用して、SSH接続を構成する修正スクリプトを生成することもできます。

  • CVUでは完了しておく必要があるインストール前の手順を検出することができますが、インストール前のタスクは実行できません。

完了しているインストール前の手順、および実行する必要のあるインストール前の手順を確認するには、次の構文を使用します。必要に応じて、-fixupを指定してコマンドを実行し、カーネルの構成タスクを実行するfixupスクリプトを生成します。

$ ./runcluvfy.sh stage -pre crsinst -fixup -n node_list

前述の構文例のnode_list変数には、クラスタ内のノードの名前をカンマで区切って指定します。Windowsの場合、カンマで区切られたノードのリストは二重引用符("")で囲む必要があります。

たとえば、マウントポイントが/mnt/dvdrom/で、ノードがnode1node2およびnode3のクラスタの場合は、次のようにコマンドを入力します。

$ cd /mnt/dvdrom/
$ ./runcluvfy.sh stage -pre crsinst -fixup -n node1,node2,node3

CVUのレポートを確認して、必要に応じて追加の手順を実行します。


関連項目:

製品のインストールの詳細は、ご使用のプラットフォーム固有のインストレーション・ガイドを参照してください。

Oracle Database 10gリリース1または2でのCVUの使用

Oracle Database 11gリリース2(11.2)メディアのCVUを使用すると、Oracle Database 10gリリース1(10.1)以降のインストールのためのシステム要件をチェックできます。CVUを使用してOracle Clusterwareのインストールをチェックするには、標準のCVUシステム・チェック・コマンドに、コマンド-r release_codeフラグを追加します。

たとえば、メディアのマウントポイントが/mnt/dvdrom/で、クラスタ・ノードがnode1node2およびnode3であるシステムで、Oracle Clusterwareバージョン10.2のインストール前に検証チェックを実行するには、次のようにコマンドを入力します。

$ cd /mnt/dvdrom
$ ./runcluvfy.sh stage -pre crsinst -n node1,node2,node3 -r 10gR2

注意:

チェックするリリース・バージョンを指定しなかった場合、CVUは、11gリリース2(11.2)の要件についてチェックします。

開始基準および終了基準

ステージを検証する際に、CVUは、開始基準および終了基準を使用します。各ステージに開始基準が設定されており、そのステージを開始する前に実行される特定の検証タスクのセットが定義されています。このチェックを行うと、そのステージのOracle Clusterwareの前提条件を満たさないかぎり、Oracle Clusterwareのインストールなどのステージを開始できません。

ステージの終了基準は、ステージの完了後に実行する必要がある検証タスクの別のセットを定義します。事後チェックによって、ステージのアクティビティが確実に完了します。事後チェックでは、後続のステージに伝播する前にステージ固有の問題が識別されます。

冗長モードおよびUNKNOWN出力

デフォルトでは、CVUによるレポートは非冗長モードでテストのサマリーのみがレポートされますが、-verbose引数を使用すると詳細な出力を取得できます。-verbose引数を指定すると、個別のチェックの詳細な出力が生成され、適用可能な場合には各ノードの結果が表レイアウトで表示されます。

cluvfyコマンドが特定のノードについてUNKNOWNと応答した場合、これは、チェックの合格または失敗をCVUが判別できないためです。この原因は、そのノードに対する到達可能性がないか、またはユーザー等価関係が存在しないことです。また、CVUによるチェックの実行時にそのノード上で発生していたシステムの問題が原因の場合もあります。

UNKNOWNという結果について考えられる原因のリストを次に示します。

  • ノードが停止している

  • Grid_home/binまたはOracle homeディレクトリにCVUが必要とする実行可能ファイルが存在しない

  • CVUを実行したユーザー・アカウントに対して、ノード上の一般的なオペレーティング・システム実行可能ファイルを実行する権限が付与されていない

  • オペレーティング・システム・パッチまたは必要なパッケージがノードに適用されていない

  • ノードでのプロセス数またはオープン・ファイル数が最大数を超えているか、または共有メモリーやセマフォなどのIPCセグメントに問題がある

CVUのノード・リストのショートカット

CVUにクラスタのすべてのノードのリストを提供するには、-n allと入力します。CVUは、次の順序でノード・リストの取得を試行します。

  1. ベンダーのクラスタウェアが使用可能な場合、CVUは、lsnodesユーティリティを使用して、構成されているすべてのノードをベンダーのクラスタウェアから選択します。

  2. Oracle Clusterwareがインストールされている場合、CVUは、olsnodesユーティリティを使用して、構成されているすべてのノードをOracle Clusterwareから選択します。

  3. ベンダーのクラスタウェアおよびOracle Clusterwareのいずれもインストールされていない場合、CVUは、構成ファイルでCV_NODE_ALLキーの値を検索します。

  4. ベンダーのクラスタウェアおよびOracle Clusterwareのいずれもインストールされておらず、構成ファイルにCV_NODE_ALLというキーが存在しない場合、CVUは、環境変数CV_NODE_ALLの値を検索します。この変数が設定されていない場合、CVUはエラーをレポートします。

環境変数を設定してその変数をCVUコマンドに使用すると、部分的なノード・リストを提供できます。たとえば、LinuxまたはUNIXのシステム上で次のように入力できます。

setenv MYNODES node1,node3,node5
cluvfy comp nodecon -n $MYNODES [-verbose]

クラスタ検証ユーティリティのコマンド・リファレンス

この項では、次のCVUコマンドについて説明します。

cluvfy comp acfs

クラスタ内のすべてのノード上でOracle ASM クラスタ・ファイル・システムの整合性をチェックするには、cluvfy comp acfsコンポーネント検証コマンドを使用します。

構文

cluvfy comp acfs [-n [node_list] | [all]] [-f file_system] [-verbose]

パラメータ

表A-2 cluvfy comp acfsコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-f file_system

チェックするファイル・システムの名前です。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp admprv

Oracle ClusterwareおよびOracle RACソフトウェアのインストール、およびOracle RACデータベースの作成またはOracle RACデータベース構成の変更を行う場合のユーザー・アカウントと管理権限を検証するには、cluvfy comp admprvコマンドを使用します。

構文

cluvfy comp admprv [-n node_list]
{ -o user_equiv [-sshonly] |
 -o crs_inst [-orainv orainventory_group] |
 -o db_inst [-osdba osdba_group] [-fixup [-fixupdir fixup_dir]] | 
 -o db_config -d oracle_home [-fixup [-fixupdir fixup_dir]] }
 [-verbose]

パラメータ

表A-3 cluvfy comp admprvコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-o user_equiv [-sshonly]

ノード間のユーザー等価関係をチェックします。LinuxおよびUNIXのプラットフォーム上では、このコマンドはまずsshを使用してユーザー等価関係を検証し、sshによるチェックが失敗した場合、次にrshを使用します。

sshのみを使用して等価関係を検証するには、-sshonlyオプションを使用します。

-o crs_inst

Oracle Clusterwareをインストールするための管理権限をチェックします。

-orainv orainventory_group

Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、oinstallをインベントリ・グループとして使用します。

-o db_inst

Oracle RACをインストールするための管理権限をチェックします。

-osdba osdba_group

OSDBAグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

-o db_config

Oracle RACデータベースを作成または構成するための管理権限をチェックします。

-d oracle_home

Oracle softwareをインストールするディレクトリです。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

  • デフォルトでは、等価関係のチェックでは、Xフォワードを無効にしているかどうか、環境変数DISPLAYを適切に設定しているかどうかなど、X-Windows構成の検証は行われません。

    ユーザー等価関係のチェックでX-Windowsについて検証するには、cluvfy comp admprv -o user_equivコマンドを実行する前にCV_HOME/cv/admin/cvu_configディレクトリに存在する構成ファイルでCV_XCHK_FOR_SSH_ENABLEDキーをTRUEに設定します。

例1: すべてのノードのユーザー等価関係の検証

次のコマンドを実行すると、すべてのノードのユーザー等価関係を検証できます。

cluvfy comp admprv -n all -o user_equiv -verbose

例2: Oracle Clusterwareのインストールに必要な権限の検証

次のコマンドを実行すると、Oracle Clusterwareのインストールに必要な権限が、ノードracnode1およびracnode2で構成されているかどうかを検証できます。

cluvfy comp admprv -n racnode1,racnode2 -o crs_inst -verbose

例3: Oracle RACデータベースの管理権限の検証

次のコマンドを実行すると、C:\app\oracle\product\11.2.0\dbhome_1 Oracleホーム・ディレクトリを使用しているOracle RACデータベースの作成または変更に必要な権限を検証し、その権限を構成するスクリプトを生成できます。

cluvfy comp admprv -n all -o db_config -d C:\app\oracle\product\11.2.0\dbhome_1 -fixup -verbose

cluvfy comp asm

クラスタ内のすべてのノード上でOracle Automatic Storage Management(Oracle ASM)の整合性をチェックするには、cluvfy comp asmコンポーネント検証コマンドを使用します。このチェックでは、指定ノードのASMインスタンスが同じOracleホームから実行されていること、およびasmlibが存在する場合は、これが有効なバージョンであり、所有権を持つことが確認されます。

構文

cluvfy comp asm [-n node_list | all ] [-verbose]

パラメータ

表A-4 cluvfy comp asmコマンドのパラメータ

パラメータ 説明
-n node_list | all

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


すべてのノードのOracle ASMの整合性の検証

クラスタのすべてのノードのOracle ASMの整合性を検証するには、次のコマンドを使用します。

cluvfy comp asm –n all

このコマンドを実行すると、次のような出力が生成されます。

Verifying ASM Integrity

Task ASM Integrity check started...

Starting check to see fi ASM is running on all cluster nodes...

ASM Running check passed. ASM is running on all specified nodes

Starting Disk Groups check to see if at least one Disk Group configured...
Disk Group Check passed. At least one Disk Group configured

Task ASM Integrity check passed...

Verification of ASM Integrity was successful.

cluvfy comp cfs

-fオプションで指定するクラスタ化ファイル・システム(Windows用のOCFSまたはOCFS2)の整合性をチェックするには、cluvfy comp cfsコンポーネント検証コマンドを使用します。CVUは、ノード・リスト内のノードのファイル・システムの共有をチェックします。

構文

cluvfy comp cfs [-n node_list] -f file_system [-verbose]

パラメータ

表A-5 cluvfy comp cfsコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-f file_system

ファイル・システムの名前です。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

  • このチェックは、OCFS2バージョン1.2.1以上でサポートされています。

すべてのノードでのクラスタ・ファイル・システムの整合性の検証

すべてのノード上のクラスタ・ファイル・システム/oradbshareの整合性を検証するには、次のコマンドを使用します。

cluvfy comp cfs -f /oradbshare –n all -verbose

cluvfy comp clocksync

ノード・リストのすべてのノード間のクロック同期を実行するには、cluvfy comp clocksyncコンポーネント検証コマンドを使用します。CVUは、時刻同期サービス(Oracleクラスタ時刻同期化サービス(CTSS)またはネットワーク・タイム・プロトコル(NTP))が実行されていること、各ノードがクロック同期用に同じ参照サーバーを使用していること、および各ノードの時間オフセットが許容範囲内であることを検証します。

構文

cluvfy comp clocksync [-noctss] [-n node_list [all]] [-verbose]

パラメータ

表A-6 cluvfy comp clocksyncコマンドのパラメータ

パラメータ 説明
-noctss

このオプションを指定した場合、CVUは、CTSSに対してチェックを実行しません。かわりに、CVUはNTPなどのプラットフォーム固有の時刻同期サービスをチェックします。

-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp clu

ノード・リスト内のすべてのノード上でクラスタの整合性をチェックするには、cluvfy comp cluコンポーネント検証コマンドを使用します。

構文

cluvfy comp clu [-n node_list] [-verbose]

パラメータ

表A-7 cluvfy comp cluコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


クラスタの整合性の検証

すべてのノードのクラスタの整合性を検証するには、次のコマンドを使用します。

cluvfy comp clu -n all

このコマンドを実行すると、次のような出力が生成されます。

Verifying cluster integrity

Checking cluster integrity...


Cluster integrity check passed


Verification of cluster integrity was successful.

cluvfy comp clumgr

ノード・リスト内のすべてのノード上でCluster ManagerサブコンポーネントまたはOracleクラスタ同期サービス(CSS)の整合性をチェックするには、cluvfy comp clumgrコンポーネント検証コマンドを使用します。

構文

cluvfy comp clumgr [-n node_list] [-verbose]

パラメータ

表A-8 cluvfy comp clumgrコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp crs

指定したノードのクラスタ・レディ・サービス(CRS)デーモンの整合性を確認するには、cluvfy comp crsコンポーネント検証コマンドを実行します。

構文

cluvfy comp crs [-n node_list] [-verbose]

パラメータ

表A-9 cluvfy comp crsコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp dhcp

Oracle Database 11gリリース2(11.2.0.2)以降では、ネットワークにDHCPサーバーが存在すること、および必要なIPアドレス数を提供可能かどうかを検証するには、cluvfy comp dhcpコンポーネント検証コマンドを使用します。この検証では、DHCPサーバーの応答時間も検証します。このコマンドは、rootで実行する必要があります。

構文

# cluvfy comp dhcp -clustername cluster_name [-vipresname vip_resource_name]
[-port dhcp_port] [-n node_list] [-verbose]

パラメータ

表A-10 cluvfy comp dhcpコマンドのパラメータ

パラメータ 説明
-clustername cluster_name

DHCPの整合性を確認するクラスタの名前です。

-vipresname vip_resource_name

VIPリソースの名前です。

-port dhcp_port

DHCPがリスニングするポートです。デフォルトのポートは67です。

-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

このコマンドを実行する前に、ネットワーク・リソースがオフラインであることを確認します。必要に応じて、srvctl stop nodeappsコマンドを使用してネットワーク・リソースをオフラインにします。


関連項目:

srvctl stop nodeappsコマンドの詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。

cluvfy comp dns

Oracle Database 11gリリース2 (11.2.0.2)以降では、cluvfy comp dnsコンポーネント検証コマンドを使用してグリッド・ネーミング・サービス(GNS)サブドメインの委譲がドメイン名サービス(DNS)サーバーで適切に設定されているかを検証します。

クラスタの1つのノードでcluvfy comp dns -serverを実行します。クラスタの各ノードでcluvfy comp dns -clientを実行し、クラスタのDNSサーバー設定を検証します。

構文

cluvfy comp dns -server -domain gns_sub_domain -vipaddress gns_vip_address] [-port dns_port]
[-verbose]

cluvfy comp dns -client -domain gns_sub_domain -vip gns_vip [-port dns_port]
[-last] [-verbose]

パラメータ

表A-11 cluvfy comp dnsコマンドのパラメータ

パラメータ 説明
-server

-domainオプションに指定したドメインでリスニングするテストDNSサーバーを起動します。

-client

指定したアドレスで起動されるテストDNSサーバーへの接続を検証します。DNSサーバーの起動時に指定した情報と同じ内容を指定する必要があります。

-domain gns_sub_domain

GNSのサブドメイン名です。

-vipaddress gns_vip_address

{IP_name | IP_address}/net_mask/interface_nameの形式のGNS仮想IPアドレスです。IP_name(IPアドレスに解決される名前)またはIP_address(IPアドレス)のいずれかを指定できます。名前またはアドレスの後に、net_mask(IPアドレスのサブネット・マスク)、およびinterface_name(IPアドレスを開始するインタフェース)が続きます。

-vip gns_vip

GNSの仮想IPアドレスであり、IPアドレスに解決される名前またはドット区切りの10進数数字のIPアドレスのいずれかです。

-port dns_port

DNSがリスニングするポートです。デフォルトのポートは53です。

-last

すべての検証が完了すると、テストDNSサーバーに終了リクエストを送信します。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

  • このコマンドはWindowsオペレーティング・システムではサポートされません。

  • 最後のノードで-lastオプションを指定してcluvfy comp dns -serverインスタンスを終了します。

  • ポート番号が1024より小さい場合、CVUをrootとして実行する必要があります。

  • GNS Oracle Clusterwareリソースがオンラインのときは、このチェックを実行しないでください。

cluvfy comp freespace

Oracle Clusterwareホームの記憶域で利用できる空き領域をチェックして、合計領域の5%以上が利用できることを確認するには、cluvfy comp freespaceコンポーネント検証コマンドを使用します。たとえば、記憶域の合計が10GBの場合、このチェックで500MB以上が空いていることを確認します。

構文

cluvfy comp freespace [-n node_list | all]

-nオプションを含める場合、コマンドを実行するノード名のカンマ区切りのリストを入力します。または、-nの後にallを指定して、クラスタ内のすべてのノードをチェックします。

cluvfy comp gns

クラスタ上のOracleグリッド・ネーミング・サービス(GNS)の整合性を検証するには、cluvfy comp gnsコンポーネント検証コマンドを使用します。

構文

cluvfy comp gns -precrsinst -domain gns_domain -vip gns_vip [-n node_list]
 [-verbose]

cluvfy comp gns -postcrsinst [-verbose]

パラメータ

表A-12 cluvfy comp gnsコマンドのパラメータ

パラメータ 説明
-precrsinst

Oracle Clusterwareのインストール前に、GNSドメイン名とGNS VIPをチェックします。

-domain gns_domain

GNSのサブ・ドメイン名です。

-vip gns_vip

GNSの仮想IPアドレスです。

-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-postcrsinst

クラスタのすべてのノードのGNSの整合性を確認します。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp gpnp

クラスタ内のすべてのノード上でグリッド・プラグ・アンド・プレイの整合性をチェックするには、cluvfy comp gpnpコンポーネント検証コマンドを使用します。

構文

cluvfy comp gpnp [-n node_list] [-verbose]

パラメータ

表A-13 cluvfy comp gpnpコマンドのパラメータ

パラメータ 説明
-n node_list 

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp ha

ローカル・ノード上でOracle Restartの整合性をチェックするには、cluvfy comp haコンポーネント検証コマンドを使用します。

構文

cluvfy comp ha [-verbose]

-verboseオプションを指定すると、CVUは詳細な出力を表示します。

cluvfy comp healthcheck

Oracle ClusterwareおよびOracle Databaseインストールをチェックして、必須要件およびベスト・プラクティス・ガイドラインへの適合性を調べたり正しく動作していることを確認するには、cluvfy comp healthcheckコンポーネント検証コマンドを使用します。

構文

cluvfy comp healthcheck [-collect {cluster|database}] [-db db_unique_name]
 [-bestpractice|-mandatory] [-deviations] [-html] [-save [-savedir directory_path]]

パラメータ

表A-14 cluvfy comp healthcheckコマンドのパラメータ

パラメータ 説明
-collect {cluster|database}

Oracle Clusterware (cluster)またはOracle Database (database)のチェックを実行することを指定するには、-collectを使用します。healthcheckオプションで-collectフラグを使用しない場合、CVUではOracle ClusterwareとOracle Databaseの両方のチェックが実行されます。

-db db_unique_name

-dbフラグの後に入力する特定のデータベースでのチェックを指定するには、-dbを使用します。

CVUでは、JDBCを使用してcvusysユーザーとしてデータベースに接続し、様々なデータベース・パラメータが検証されます。このため、-dbフラグで指定したデータベースに対してCVUによるチェックを実行する場合は、まずそのデータベースにcvusysユーザーを作成し、そのユーザーにCVU固有のロールcvusappを付与する必要があります。cvusappロールのメンバーに、システム表に対するselect権限を付与する必要もあります。

CVU_home/cv/adminディレクトリのcvusys.sqlスクリプトを使用して、このユーザーを簡単に作成できます。このSQLスクリプトは、CVUにより検証するすべてのデータベースでcvusysユーザーを作成します。

-dbフラグを使用し、一意のデータベース名を指定しない場合、CVUではクラスタのすべてのOracle Databaseが検出されます。これらのデータベースでベスト・プラクティス・チェックを実行するには、各データベースでcvusysユーザーを作成し、ベスト・プラクティス・チェックを実行するのに必要なcvusappロールとselect権限をこのユーザーに付与する必要があります。

[-bestpractice|-mandatory
 [-deviations]]

ベスト・プラクティスのチェックを指定するためには-bestpracticeフラグを使用し、必須のチェックを指定するためには-mandatoryフラグを使用します。ベスト・プラクティスの推奨事項または必須要件からの差異のみを確認することを指定するには、-deviationsフラグを追加します。-bestpracticeまたは-mandatoryのいずれかのフラグを指定できますが、両方のフラグを指定することはできません。-bestpracticeまたは-mandatoryのいずれも指定しない場合は、CVUによってベスト・プラクティスと必須要件の両方が表示されます。

-html

-htmlフラグは、詳細なレポートをHTML形式で生成するために使用します。

-htmlフラグを指定し、CVUによって認識されるブラウザがシステムで使用可能な場合は、チェックの完了時にCVUによってそのブラウザが起動され、レポートがブラウザに表示されます。

-htmlフラグを指定しない場合、CVUによって詳細なレポートがテキスト・ファイルで生成されます。

-save [-savedir directory_path]

-saveまたは-save -savedirフラグは、cvuchecdkreport_timestamp.txtおよびcvucheckreport_timestamp.htmという検証レポート(timestampは検証レポートの日時)を保存するために使用します。


cluvfy comp nodeapp

指定したすべてのノード上でノード・アプリケーション(VIP、NETWORK、ONSおよびGSD)の存在をチェックするには、コンポーネント・コマンドcluvfy comp nodeappを使用します。

構文

cluvfy comp nodeapp [-n node_list] [-verbose]

パラメータ

表A-15 cluvfy comp nodeappコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy comp nodecon

ノード・リストに指定されたノード間の接続性をチェックするには、cluvfy comp nodeconコンポーネント検証コマンドを使用します。インタフェース・リストを指定した場合、CVUは、指定したインタフェースのみを使用して接続性をチェックします。

構文

cluvfy comp nodecon -n node_list [-i interface_list] [-verbose]

パラメータ

表A-16 cluvfy comp nodeconコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-i interface_list

インタフェース名のカンマ区切りリストです。このオプションを指定しない場合、CVUは、使用可能なインタフェースを検出し、いずれかのインタフェースを使用して接続性をチェックします。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

  • このコマンドを冗長モードで実行して、インタフェース、IPアドレスおよびサブネット間のマッピングを識別できます。

  • CVUを使用して次の操作を実行するには、-iオプションを指定せず、-nallを設定してnodeconコマンドを使用します。

    • クラスタ・ノード上で使用可能なすべてのネットワーク・インタフェースの検出

    • インタフェースの対応するIPアドレスおよびサブネットの確認

    • VIPとしての使用に適したインタフェースのリストおよびプライベート・インターコネクトのインタフェースのリストの取得

    • これらのインタフェースを介したすべてのノード間の接続性の検証

例1: 特定のネットワーク・インタフェースを介したノード間の接続性の検証

次のコマンドを実行すると、インタフェースeth0を介してnode1およびnode3のノード間の接続性を検証できます。

cluvfy comp nodecon -n node1,node3 –i eth0 -verbose

例2: 使用可能なすべてのネットワーク・インタフェースの検出およびそれらのネットワーク・インタフェースを介したノード間の接続性の検証

クラスタ・ノード上で使用可能なすべてのネットワーク・インタフェースを検出するには、次のコマンドを使用します。これで、CVUによって、インタフェースの対応するIPアドレスおよびサブネットが確認されます。次に、この情報を使用して、VIPとしての使用に適したインタフェースのリストおよびプライベート・インターコネクトのインタフェースのリストがCVUにより取得されます。最後に、これらのインタフェースを介したクラスタ内のすべてのノード間の接続性がCVUにより検証されます。

cluvfy comp nodecon -n all -verbose

cluvfy comp nodereach

指定したノードのソース・ノードからの到達可能性をチェックするには、cluvfy comp nodereachコンポーネント検証コマンドを使用します。

構文

cluvfy comp nodereach -n node_list [-srcnode node] [-verbose]

パラメータ

表A-17 cluvfy comp nodereachコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-srcnode node

CVUが到達可能性テストを実行するソース・ノードの名前です。ソース・ノードを指定しない場合、コマンドを実行するノードがソース・ノードとして使用されます。

-verbose

CVUは詳細な出力を表示します。


クラスタのノード間のネットワーク接続性の検証

ローカル・ノードからnode3にネットワーク経由で到達可能かどうかを検証するには、次のコマンドを使用します。

cluvfy comp nodereach -n node3

このコマンドを実行すると、次のような出力が生成されます。

Verifying node reachability

Checking node reachability...
Node reachability check passed from node ”node1”


Verification of node reachability was successful.

cluvfy comp ocr

指定したすべてのノード上でOracle Cluster Registry(OCR)の整合性をチェックするには、cluvfy comp ocrコンポーネント検証コマンドを使用します。

構文

cluvfy comp ocr [-n node_list] [-verbose]

パラメータ

表A-18 cluvfy comp ocrコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

このコマンドは、OCRの内容の整合性を検証しません。OCRの内容を検証するには、OCRCHECKユーティリティを使用する必要があります。

ローカル・ノードでのOCRの整合性の検証

ローカル・ノードでのOCRの整合性を検証するには、次のコマンドを実行します。

cluvfy comp ocr

このコマンドを実行すると、次のような出力が生成されます。

Verifying OCR integrity

Checking OCR integrity...

Checking the absence of a non-clustered configurationl...
All nodes free of non-clustered, local-only configurations


ASM Running check passed. ASM is running on all specified nodes

Checking OCR config file ”/etc/oracle/ocr.loc”...

OCR config file ”/etc/oracle/ocr.loc” check successful


Disk group for ocr location ”+DATA” available on all the nodes


NOTE:
This check does not verify the integrity of the OCR contents. Execute ’ocrcheck' as a privileged user to verify the contents of OCR.

OCR integrity check passed

Verification of OCR integrity was successful.

cluvfy comp ohasd

Oracle高可用性サービス・デーモンの整合性をチェックするには、cluvfy comp ohasdコンポーネント検証コマンドを使用します。

構文

cluvfy comp ohasd [-n node_list] [-verbose]

パラメータ

表A-19 cluvfy comp ohasdコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


クラスタのすべてのノード上のOracle高可用性サービス・デーモンの整合性の検証

Oracle高可用性サービス・デーモンがクラスタのすべてのノードで正常に動作しているかどうかを検証するには、次のコマンドを使用します。

cluvfy comp ohasd -n all -verbose

このコマンドを実行すると、次のような出力が生成されます。

Verifying OHASD integrity

Checking OHASD integrity...
ohasd is running on node ”node1”
ohasd is running on node ”node2”
ohasd is running on node ”node3”
ohasd is running on node ”node4”

OHASD integrity check passed

Verification of OHASD integrity was successful.

cluvfy comp olr

ローカル・ノード上でOracle Local Registry(OLR)の整合性をチェックするには、cluvfy comp olrコンポーネント検証コマンドを使用します。

構文

cluvfy comp olr [-verbose]

-verboseオプションを指定すると、CVUは詳細な出力を表示します。

使用上の注意

このコマンドは、OLRの内容の整合性を検証しません。OCRの内容を検証するには、ocrcheck -localコマンドを使用する必要があります。

ノードのOLRの整合性の検証

現行のノードでOLRの整合性を検証するには、次のコマンドを実行します。

cluvfy comp olr -verbose

このコマンドを実行すると、次のような出力が生成されます。

Verifying OLR integrity

Checking OLR integrity...

Checking OLR config file...

OLR config file check successful


Checking OLR file attributes...

OLR file check successful

WARNING:
This check does not verify the integrity of the OLR contents. Execute ’ocrcheck -local' as a privileged user to verify the contents of OLR.

OLR integrity check passed

Verification of OLR integrity was successful.

cluvfy comp peer

参照ノードに対する指定ノードの互換性およびプロパティをチェックするには、cluvfy comp peerコンポーネント検証コマンドを使用します。デフォルトのユーザー・グループ名以外の互換性、および異なるリリースのOracleソフトウェアの互換性をチェックできます。このコマンドは、ユーザーとグループの値、カーネル設定およびインストール済オペレーティング・システム・パッケージの他、メモリー、スワップ領域などの物理的な属性を比較します。

構文

cluvfy comp peer -n node_list [-refnode node]
 [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-orainv orainventory_group]
 [-osdba osdba_group] [-verbose]

パラメータ

表A-20 cluvfy comp peerコマンドのパラメータ

パラメータ 説明
-refnode

他のノードとの互換性をチェックするための参照ノードとしてCVUが使用するノードです。このオプションを指定しない場合、CVUは、ノード・リスト内のすべてのノードについての値をレポートします。

-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-r {10gR1 | 10gR2 | 11gR1 |
 11gR2}

Oracle ClusterwareまたはOracle RACのインストール要件に合わせて、CVUがチェックするソフトウェア・リリースを指定します。このオプションを指定しない場合、CVUは、Oracle ClusterwareまたはOracle Database 11gリリース2(11.2)を想定します。

-orainv orainventory_group

Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、oinstallをインベントリ・グループとして使用します。

注意: このパラメータは、Windowsシステムでは使用できません。

-osdba osdba_group

OSDBAグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

注意: このパラメータは、Windowsシステムでは使用できません。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

-refnodeオプションによるピアの比較では、他のノードと参照ノードのシステム・プロパティが比較されます。値が一致しない(値が参照ノードの値と等しくない)場合、CVUはその比較に参照ノードからの偏差としてフラグを付けます。グループまたはユーザーが参照ノードおよびその他のノードに存在しない場合、CVUは参照ノードからの偏差がないため、この比較を'passed'とレポートします。同様に、参照ノードよりも総メモリー量が多いノードの比較結果を'failed'とレポートします。

選択したクラスタ・ノードの構成の比較

次のコマンドを実行すると、Oracle Database 11gリリース2(11.2)から様々なノードに対して事前選択された複数のプロパティの値が表示されます。

cluvfy comp peer -n node1,node2,node4,node7 -verbose

cluvfy comp scan

単一クライアント・アクセス名(SCAN)構成をチェックするには、cluvfy comp scanコンポーネント検証コマンドを使用します。

構文

cluvfy comp scan [-verbose]

-verboseオプションを指定すると、CVUは詳細な出力を表示します。

SCAN構成の検証

SCANおよびSCANリスナーが構成されていて、クラスタのすべてのノードで動作することを検証するには、次のコマンドを使用します。

cluvfy comp scan

このコマンドを実行すると、次のような出力が生成されます。

Verifying scan

Checking Single Client Access Name (SCAN)...

Checking TCP connectivity to SCAN Listeners...
TCP connectivity to SCAN Listeners exists on all cluster nodes

Checking name resolution setup for ”node1.example.com”...

Verification of SCAN VIP and Listener setup passed

Verification of scan was successful.

cluvfy comp software

Oracleソフトウェアでインストールされるファイルおよび属性をチェックするには、cluvfy comp softwareコンポーネント検証コマンドを使用します。

構文

cluvfy comp software [-n node_list] [-d oracle_home] 
 [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-verbose]

パラメータ

表A-21 cluvfy comp softwareコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-d oracle_home

Oracle Databaseソフトウェアをインストールするディレクトリです。このオプションを指定しない場合、Gridホームにインストールされるファイルが検証されます。

-r {10gR1 | 10gR2 | 11gR1 |
 11gR2}

Oracle ClusterwareまたはOracle RACのインストール要件に合わせて、CVUがチェックするソフトウェア・リリースを指定します。このオプションを指定しない場合、CVUは、Oracle ClusterwareまたはOracle Database 11gリリース2(11.2)を想定します。

-verbose

CVUは詳細な出力を表示します。


Oracle Clusterwareホーム・ディレクトリのクラスタのすべてのノードの上のソフトウェア構成の確認

Oracle Clusterware 11gリリース2のインストール済ファイルが正しく構成されていることを検証するには、次のようなコマンドを使用します。

cluvfy comp software -n all -verbose

このコマンドを実行すると、次のような出力が生成されます。

Verifying software

Check: Software

 1021 files verified

Software check passed

Verification of software was successful.

cluvfy comp space

指定したすべてのノードに対して、-lオプションで指定した場所のディスクの空き領域をチェックするには、cluvfy comp spaceコンポーネント検証コマンドを使用します。

構文

cluvfy comp space [-n node_list] -l storage_location 
 -z disk_space {B | K | M | G} [-verbose]

パラメータ

表A-22 cluvfy comp spaceコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-l storage_location

チェックする記憶域の場所へのディレクトリ・パスです。

-z disk_space {B|K|M|G}

必要なディスク領域で、単位はバイト(B)、キロバイト(K)、メガバイト(M)またはギガバイト(G)です。数値とバイト単位を示す文字の間に空白を入れないでください(2Gなど)。整数のみを使用してください。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

spaceコンポーネントは、ブロック・デバイスおよびRAWデバイスをサポートしていません。


関連項目:

動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。

https://support.oracle.com


すべてのノードでの使用可能な空き領域の検証

次のコマンドを実行すると、各ノードの/home/dbadmin/productsディレクトリに5GBの空き領域があるかどうかを検証できます。

cluvfy comp space -n all -l /home/dbadmin/products –z 5G -verbose

cluvfy comp ssa

指定された記憶域の場所の共有を検出してチェックするには、cluvfy comp ssaコンポーネント検証コマンドを使用します。CVUは、ノード・リスト内のノードの共有をチェックします。

構文

cluvfy comp ssa [-n node_list] [-s storageID_list]
 [-t {software | data | ocr_vdisk}] [-verbose]

パラメータ

表A-23 cluvfy comp ssaコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-s storageID_list

記憶域IDのカンマ区切りリストです(たとえば、/dev/sda,/dev/sdb)。

-sオプションを指定しない場合、CVUは、サポートされている記憶域タイプを検出し、各記憶域タイプの共有をチェックします。

-t {software | data | 
ocr_vdisk}

記憶域デバイスで格納されるOracleファイルのタイプです。

-tオプションを指定しない場合、CVUは、dataファイル・タイプを検出またはチェックします。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

  • 現行のリリースのcluvfyには、共有記憶域アクセス性のチェックに関して、Linuxに対する次のような制限があります。

    • 現在、NAS記憶域およびOCFS2(バージョン1.2.1以上)がサポートされています。


      関連項目:

      NASマウント・オプションの詳細は、『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。

    • NASの共有性チェックの場合、cluvfyコマンドを実行するには、指定されたパスに対する書込み権限が必要です。cluvfyのユーザーに書込み権限が付与されていない場合、cluvfyはそのパスがnot sharedであるとレポートします。

  • CVUを使用してLinuxシステム上のSCSIディスクの検出および共有記憶域のアクセス性のチェックを実行するには、CVUQDISKパッケージが必要です。CVUの使用を試行したときにOracle RAC環境のいずれかのノード上にCVUQDISKパッケージがインストールされていない場合、CVUでエラーが発生します。CVUQDISKパッケージのインストール方法の詳細は、「Red Hat Linuxでの共有ディスクの検出」を参照してください。

例1: システム上で使用可能なすべての共有記憶域システムの検出

システム上で使用可能なすべての共有記憶域システムを検出するには、次のコマンドを実行します。

cluvfy comp ssa -n all -verbose

例2: 特定の記憶域の場所のアクセス性の検証

次のようなコマンドを実行すると、クラスタ・ノード全体のデータ・ファイルを格納する/dev/sdaなどの特定の記憶域の場所のアクセス性を検証できます。

cluvfy comp ssa -n all -s /dev/sda,/dev/sdb,/dev/sdc

このコマンドを実行すると、次のような出力が生成されます。

Verifying shared storage acessibility

Checking shared storage accessibility...

”/dev/sda” is shared
”/dev/sdb” is shared
”/dev/sdc” is shared


Shared storage check was successful on nodes ”node1,node2,node3,node4”

Verification of shared storage accessibility was successful.

cluvfy comp sys

指定したすべてのノード上で指定した製品のシステム最小要件が満たされているかどうかをチェックするには、cluvfy comp sysコンポーネント検証コマンドを使用します。

構文

cluvfy comp sys [-n node_list] -p {crs | ha | database} 
 [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-osdba osdba_group]
 [-orainv orainventory_group] [-fixup [-fixupdir fixup_dir]] [-verbose]

パラメータ

表A-24 cluvfy comp sysコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-p {crs | ha | database}

CVUがOracle Clusterware、Oracle Restart(HA)またはOracle RACに関するシステム要件をチェックするかどうかを指定します。

-r {10gR1 | 10gR2 | 11gR1 |
11gR2}

Oracle ClusterwareまたはOracle RACのインストール要件に合わせて、CVUがチェックするOracle Databaseのリリースを指定します。このオプションを指定しない場合、CVUは、Oracle Database 11gリリース2(11.2)であると想定します。

-osdba osdba_group

OSDBAグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

-orainv orainventory_group

Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、oinstallをインベントリ・グループとして使用します。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-verbose

CVUは詳細な出力を表示します。


Oracle Clusterwareのインストールのシステム要件の確認

クラスタ・ノードnode1node2およびnode3上にOracle Clusterware 11gリリース2をインストールするためのシステム要件を検証するには、次のコマンドを実行します。

cluvfy comp sys -n node1,node2,node3 -p crs -verbose

cluvfy comp vdisk

指定したすべてのノードの投票ディスクの投票ディスク構成およびudevの設定を確認するには、cluvfy comp vdiskコンポーネント検証コマンドを使用します。


関連項目:

udevの設定の詳細は、『Oracle Grid Infrastructureインストレーション・ガイドfor Linux』を参照してください。

構文

cluvfy comp vdisk [-n node_list] [-verbose]

パラメータ

表A-25 cluvfy comp vdiskコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage [-pre | -post] acfscfg

Oracle ASMクラスタ・ファイル・システム(Oracle ACFS)を構成する前にクラスタ・ノードが正しく設定されているかどうかを検証するには、cluvfy stage -pre acfscfgコマンドを使用します。

Oracle ACFSを構成した後に既存のクラスタをチェックするには、cluvfy stage -post acfscfgコマンドを使用します。

構文

cluvfy stage -pre acfscfg -n node_list [-asmdev asm_device_list] [-verbose]

cluvfy stage -post acfscfg -n node_list [-verbose]

パラメータ

表A-26 cluvfy stage [-pre | -post] acfscfgコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-asmdev asm_device_list

Oracle ASMで使用する予定のデバイスのリストです。このオプションを指定しない場合、CVUは、内部のオペレーティング・システムに依存した値(たとえばLinuxシステムの場合は/dev/raw/*)を使用します。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage [-pre | -post] cfs

OCFS2またはWindows用のOCFSを設定する前にクラスタ・ノードが正しく設定されているかどうかを検証するには、cluvfy stage -pre cfsステージ検証コマンドを使用します。

OCFS2またはWindows用のOCFSを設定した後に指定ノードで適切なチェックを実行するには、cluvfy stage -post cfsステージ検証コマンドを使用します。


関連項目:

サポートされた共有記憶域タイプのリストについては、ご使用のプラットフォームの『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。

構文

cluvfy stage -pre cfs -n node_list -s storageID_list [-verbose]

cluvfy stage -post cfs -n node_list -f file_system [-verbose]

パラメータ

表A-27 cluvfy stage [-pre | -post] cfsコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-s storageID_list

チェックする記憶域の場所のカンマ区切りリストです。

-verbose

CVUは詳細な出力を表示します。


例1: OCFS2の構成前に特定の共有デバイスが正しく構成されているかどうかのチェック

OCFS2の設定前に共有デバイスが正しく構成されているかどうかをチェックするには、次のようなコマンドを使用します。/dev/sdd5をシステムの共有デバイスの名前に置き換えます。

cluvfy stage -pre cfs -n node1,node2,node3,node4 -s /dev/sdd5

例2: Windowsファイル・システム用のOCFSが正しく構成されているかどうかのチェック

Windows用のOCFSの構成が正常に完了したかどうか、およびすべてのノードがこの新しいファイル・システムにアクセスできるかどうかをチェックするには、次のようなコマンドを使用します。E:\ocfs\db1は、クラスタのWindowsファイル・システム用のOCFSの場所に置き換えます。

cluvfy stage -post cfs -n all -f E:\ocfs\db1

cluvfy stage [-pre | -post] crsinst

Oracle Clusterwareをインストールする前に、指定ノードをチェックするには、cluvfy stage -pre crsinstコマンドを使用します。-cおよび-qオプションを指定すると、OCRおよび投票ディスクに対する追加のチェックが実行されます。

Oracle Clusterwareをインストールした後に、指定ノードをチェックするには、cluvfy stage -post crsinstコマンドを使用します。

構文

cluvfy stage -pre crsinst -n node_list [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}]
 [-c ocr_location_list] [-q voting_disk_list] [-osdba osdba_group]
 [-orainv orainventory_group] [-asm [-asmgrp asmadmin_group] [-asmdev asm_device_list]]
 [-crshome Grid_home] [-fixup [-fixupdir fixup_dir]
 [-networks network_list]
 [-verbose]]

cluvfy stage -post crsinst -n node_list [-verbose]

パラメータ

表A-28 cluvfy stage [-pre | -post] crsinstコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-r {10gR1 | 10gR2 | 11gR1 |
11gR2}

Oracle Clusterwareのインストール要件に合わせて、CVUがチェックするOracle Clusterwareのリリースを指定します。このオプションを指定しない場合、CVUは、Oracle Clusterware 11gリリース2(11.2)を想定します。

-c ocr_location_list

CVUがすべてのノードの可用性を検証する、OCRの場所またはファイルのディレクトリ・パスのカンマ区切りリストです。このオプションを指定しない場合、OCRの場所はチェックされません。

-q voting_disk_list

CVUがすべてのノードの可用性を検証する、投票ディスクのディレクトリ・パスのカンマ区切りリストです。このオプションを指定しない場合、投票ディスクの場所はチェックされません。

-osdba osdba_group

OSDBAグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

-orainv orainventory_group

Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、oinstallをインベントリ・グループとして使用します。

-asm

Oracle ASMがOracle Clusterwareファイルの格納に使用されることを示します。

-asmgrp asmadmin_group

OSASMグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

-asm -asmdev asm_device_list

CVUがすべてのノードの可用性を検証する、Oracle ASMで使用する予定のデバイスのリストです。

このオプションを指定しない場合、CVUは、内部のオペレーティング・システムに依存した値を使用します。

-crshome Grid_home

Oracle Grid InfrastructureまたはOracle Clusterwareホーム・ディレクトリの場所です。このオプションを指定しない場合、提供されたファイル・システムの場所で、Oracle Clusterwareインストール用に十分な空き領域があるかどうかがチェックされます。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-networks network_list

"if_name" [:subnet_id [:public | :cluster_interconnect]]の形式のネットワークのカンマ区切りリストのネットワーク・パラメータを検証します。

  • ネットワーク・インタフェース名(if_name)を指定する場合、eth*のようにワイルドカード文字としてアスタリスク(*)を使用し、インタフェースを照合することができます。

  • subnet_id変数のネットワーク・インタフェースのサブネット番号を指定し、ネットワーク・インタフェースのタイプを選択します。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage -pre dbcfg

Oracle RACデータベースを構成する前に指定したノードをチェックして、システムがデータベースの作成またはデータベースの構成の変更を行うためのすべての基準を満たしているかどうかを検証するには、cluvfy stage -pre dbcfgコマンドを使用します。

構文

cluvfy stage -pre dbcfg -n node_list -d Oracle_home [-fixup [-fixupdir fixup_dir]]
[-verbose]

パラメータ

表A-29 cluvfy stage -pre dbcfgコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-d Oracle_home

チェックされているデータベースのOracleホーム・ディレクトリの場所です。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage -pre dbinst

Oracle RACデータベースのインストールまたは作成の前に指定したノードをチェックして、システムがOracle RACデータベースのインストールまたは作成のすべての基準を満たしているかどうかを検証するには、cluvfy stage -pre dbinstコマンドを使用します。

構文

cluvfy stage -pre dbinst -n node_list [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}]
 [-osdba osdba_group] [-d Oracle_home] [-fixup [-fixupdir fixup_dir] [-verbose]

パラメータ

表A-30 cluvfy stage -pre dbinstコマンドのパラメータ

パラメータ 説明
-n node_list 

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-r {10gR1 | 10gR2 | 11gR1 | 11gR2}

Oracle RACのインストール要件に合わせて、CVUがチェックするOracle Databaseのリリースを指定します。このオプションを指定しない場合、CVUは、Oracle Database 11gリリース2(11.2)であると想定します。

-osdba osdba_group

OSDBAグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

-d Oracle_home

Oracle RACのインストールおよびOracle RACデータベースの作成を行うOracleホーム・ディレクトリの場所です。このオプションを指定した場合、指定した場所にデータベース・インストール用に十分な空きディスク領域があるかどうかがチェックされます。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage [-pre | -post] hacfg

Oracle Restartを構成する前にローカル・ノードをチェックするには、cluvfy stage -pre hacfgコマンドを使用します。

Oracle Restartを構成した後にローカル・ノードをチェックするには、cluvfy stage -post hacfgコマンドを使用します。

構文

cluvfy stage -pre hacfg [-osdba osdba_group] [-orainv orainventory_group]
[-fixup [-fixupdir fixup_dir]] [-verbose]

cluvfy stage -post hacfg [-verbose]

パラメータ

表A-31 cluvfy stage [-pre | -post] hacfgコマンドのパラメータ

パラメータ 説明
-osdba osdba_group

OSDBAグループの名前です。このオプションを指定しない場合、CVUは、dbaをOSDBAグループとして使用します。

-orainv orainventory_group

Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、oinstallをインベントリ・グループとして使用します。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage -post hwos

Oracleソフトウェアをインストールする前にクラスタ内の指定したノードでネットワークおよび記憶域の検証を実行するには、cluvfy stage -post hwosステージ検証コマンドを使用します。また、このコマンドは、サポートされる記憶域タイプをチェックし、共有に関して各記憶域タイプをチェックします。

構文

cluvfy stage -post hwos -n node_list [-s storageID_list] [-verbose]

パラメータ

表A-32 cluvfy stage -post hwosコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-s storageID_list

サポートされている記憶域タイプの共有用の記憶域の場所のカンマ区切りリストをチェックします。

-sオプションを指定しない場合、CVUは、サポートされている記憶域タイプを検出し、各記憶域タイプの共有をチェックします。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage [-pre | -post] nodeadd

指定したノードを既存のクラスタに追加する前に、そのノードが正しく構成されているかどうかを検証する場合、および指定したノードを追加する前にクラスタの整合性を検証する場合は、cluvfy stage -pre nodeaddコマンドを使用します。

このコマンドは、追加するノードのシステム構成(オペレーティング・システムのバージョン、ソフトウェア・パッチ、パッケージ、カーネル・パラメータなど)が既存のクラスタ・ノードと互換性があること、およびクラスタウェアが既存のノードで正常に動作していることを検証します。既存のクラスタの任意のノードでこのコマンドを実行します。

指定したノードがネットワーク、共有記憶域およびクラスタウェアのレベルでクラスタに正常に追加されていることを検証するには、cluvfy stage -post nodeaddコマンドを使用します。

構文

cluvfy stage -pre nodeadd -n node_list [-vip vip_list] 
 [-fixup [-fixupdir fixup_dir]] [-verbose]

cluvfy stage -post nodeadd -n node_list [-verbose]

パラメータ

表A-33 cluvfy stage [-pre | -post] nodeaddコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。これらは、クラスタに追加するノード、または追加されたノードです。

-v vip_list

新規ノードで使用される仮想IPアドレスのカンマ区切りリストです。

-fixup [-fixupdir fixup_dir]

検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、-fixupdirオプションを使用します。ディレクトリを指定しない場合、CVUは、作業ディレクトリを使用します。

-verbose

CVUは詳細な出力を表示します。


cluvfy stage -post nodedel

特定のノードがクラスタから正常に削除されていることを確認するには、cluvfy stage -post nodedelコマンドを使用します。通常、このコマンドは、ノード固有のインタフェース構成の詳細が削除されたこと、ノードがクラスタ構成の一部ではなくなったこと、および適切なOracle ASMクリーンアップが実行されたことを検証します。

構文

cluvfy stage -post nodedel -n node_list [-verbose]

パラメータ

表A-34 cluvfy stage -post nodedelコマンドのパラメータ

パラメータ 説明
-n node_list

検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。allを指定した場合、CVUは、クラスタ内のすべてのノードをチェックします。

-verbose

CVUは詳細な出力を表示します。


使用上の注意

cluvfy stage -post nodedelの検証に失敗した場合、ノードの削除手順を繰り返します。

CVUのトラブルシューティングおよび診断出力

この項では、次のCVUのトラブルシューティングに関する項目について説明します。

トレースの有効化

環境変数SRVM_TRACEをtrueに設定することによって、トレースを有効にできます。たとえば、tcshでは、setenv SRVM_TRACE trueなどのエントリを使用するとトレースが有効になります。

デフォルトでは、CVUのトレース・ファイルは、CV_HOME/cv/logディレクトリに作成されます。ログ・ファイルは自動的にローテーションされ、最新のログ・ファイルの名前はcvutrace.log.0になります。必要に応じて不要なログ・ファイルを削除またはアーカイブしてディスク領域を解放する必要があります。

トレースを有効にしないかぎり、CVUはトレース・ファイルを生成しません。トレース・ファイルのデフォルト以外の場所を使用するには、CV_TRACELOC環境変数に適切なトレース・ディレクトリの絶対パスを設定します。

クラスタ検証ユーティリティの既知の問題

この項では、次に示すクラスタ検証ユーティリティ(CVU)の既知の制限について説明します。

クラスタ検証ユーティリティによってサポートされるデータベースのバージョン

現行のリリースのCVUでは、Oracle Database 10g以上、Oracle RACおよびOracle Clusterwareのみがサポートされており、CVUには下位互換性がありません。CVUは、Oracle Database 10gより前のOracle Database製品をチェックまたは検証することはできません。

Linuxの共有記憶域アクセス性(ssa)チェックのレポートの制限

現行のリリースのcluvfyには、共有記憶域アクセス性のチェックに関して、Linuxに対する次のような制限があります。

  • OCFS2(バージョン1.2.1以上)がサポートされています。

  • NASの共有性チェックの場合、cluvfyコマンドを実行するには、指定されたパスに対する書込み権限が必要です。cluvfyコマンドを実行するユーザーに書込み権限が付与されていない場合、cluvfyはそのパスがnot sharedであるとレポートします。

Red Hat Linuxでの共有ディスクの検出

CVUを使用してRed Hat Linux 4.0(以上)およびSUSE Linux Enterprise Server上のSCSIディスクの検出および共有記憶域のアクセス性のチェックを実行する場合、CVUQDISKパッケージが必要です。CVUの使用を試行したときにOracle RAC環境のいずれかのノード上にCVUQDISKパッケージがインストールされていない場合、CVUでエラーが発生します。

CVUQDISKパッケージをインストールするには、次の手順を実行します。

  1. rootユーザーとしてログインします。

  2. パッケージcvuqdisk-1.0.6-1.rpm(またはこれ以上のバージョン)をローカル・ディレクトリにコピーします。このrpmは、Oracle Clusterwareのインストール・メディアの最上位ディレクトリのrpmサブディレクトリ内にあります。たとえば、cvuqdisk-1.0.6-1.rpmは、/mountpoint/clusterware/rpm/というディレクトリにあり、この場合のmountpointはディレクトリが配置されているディスクのマウント・ポイントです。

    # cp /mount_point/clusterware/rpm/cvuqdisk-1.0.6-1.rpm /u01/oradba
    
  3. CVUQDISK_GRP環境変数を、CVUQDISKパッケージ・バイナリを所有する必要があるオペレーティング・システム・グループに設定します。CVUQDISK_GRPが設定されていない場合、デフォルトで、oinstallグループが所有者グループになります。

    # set CVUQDISK_GRP=oinstall
    
    
  4. コマンドrpm -q cvuqdiskを実行して、以前のバージョンのCVUQDISKパッケージがインストールされているかどうかを判別します。以前のバージョンのCVUQDISKパッケージが検出された場合、コマンドrpm -e cvuqdisk previous_versionを実行してこのパッケージを削除します(この場合のprevious_versionは、以前のバージョンのCVUQDISKの識別子です)。

    # rpm -q cvuqdisk
    cvuqdisk-1.0.2-1
    # rpm -e cvuqdisk-1.0.2-1
    
    
  5. コマンドrpm -iv cvuqdisk-1.0.6-1.rpmを実行して、最新のCVUQDISKパッケージをインストールします。

    # cd /u01/oradba
    # rpm -iv cvuqdisk-1.0.6-1.rpm