クラスタ検証ユーティリティ(CVU)は、インストール、パッチ更新、またはその他のシステム変更を行う前に、システム・チェックを実行します。CVUを使用すると、必要なシステム構成やインストール前の手順を確実に行えるようになり、Oracle Grid InfrastructureやOracle Real Application Clusters(Oracle RAC)のインストール、更新またはパッチ操作を正常に完了できます。
Oracle Clusterware 11gリリース2(11.2)では、Oracle Universal InstallerがCVUと完全に統合され、多くのCVU前提条件チェックが自動化されています。Oracle Universal Installerを実行すると、すべての前提条件チェックとこれに関連付けられたfixupスクリプトが実行されます。
関連項目:
|
注意: 次のOracle Technology Networkを確認して、CVUの最新バージョンをダウンロードしてください。 |
この付録では、CVUについて説明します。内容は次のとおりです。
この項では、CVUの使用に関連する項目について説明します。
CVUは、操作のフェーズまたはステージで主なクラスタ・コンポーネントを検証できます。コンポーネントは、ディスクの空き領域などの基本的なコンポーネントの場合と、Oracle Clusterwareの整合性チェックなどの複雑なコンポーネントの場合があります。たとえば、CVUは、Oracle Clusterwareレイヤー全体の複数のOracle Clusterwareサブコンポーネントを検証できます。また、CVUは、ディスク領域、メモリー、プロセスおよびその他の重要なクラスタ・コンポーネントをチェックできます。ステージにはデータベースのインストールなどがあり、CVUはこれらのステージで、システムがOracle Real Application Clusters(Oracle RAC)のインストールのための基準を満たしているかどうかを検証できます。その他のステージには、完全に稼働しているクラスタ設定を使用したハードウェアの初期設定やシステム要件の設定などが含まれます。
表A-1に、CVUで実行できる検証を示します。
表A-1 CVUの様々な検証の実行
実行する検証 | 使用するCVUのコマンド |
---|---|
システム要件の検証 |
|
Oracle ACFSの検証 |
|
記憶域の検証 |
|
ネットワークの検証 |
|
接続性の検証 |
|
クラスタ時刻同期化サービスの検証 |
|
ユーザーおよび権限の検証 |
|
ノードの比較および検証 |
|
インストールの検証 |
|
削除の検証 |
|
クラスタの整合性の検証 |
|
Oracle ClusterwareおよびOracle ASMコンポーネントの検証 |
|
この項には次のトピックが含まれます:
インストール要件
CVUを実行するノード上には、CVUソフトウェア用に30MB以上の空き領域が必要です。
各ノード上に、空き領域が25MB以上の作業ディレクトリが必要です。作業ディレクトリのデフォルトの場所は、LinuxおよびUNIXシステムの場合は/tmp
で、Windowsシステムの場合はTEMP
環境変数に指定されている値の場所です。CV_DESTLOC
環境変数を設定すると、別の場所を指定できます。
CVUを使用する際、ユーティリティは、必要な情報をCVUの作業ディレクトリにコピーしようとします。各ノードでの作業ディレクトリの存在が確認されます。見つからない場合は、作成が試行されます。クラスタ内のすべてのノード上にCVUの作業ディレクトリが存在するか、またはCVUを実行しているユーザーに対して各ノード上にディレクトリを作成するための適切な権限が付与されているかを確認します。
ローカル・ノード上のJava 1.4.1。
使用方法
CVUには、Oracleソフトウェアをインストールする前に使用するruncluvfy.sh
(Windowsではruncluvfy.bat
)と、cluvfy
(Windowsではcluvfy.bat
)の2つのスクリプトが含まれており、これらはGrid_home
/bin
ディレクトリに格納されています。runcluvfy.sh
スクリプトには一時変数の定義が含まれており、これによって、Oracle Grid InfrastructureまたはOracle Databaseをインストールする前の実行が可能になります。Oracle Grid Infrastructureのインストール後には、cluvfy
コマンドを使用して前提条件をチェックし、その他のシステム準備状態チェックを実行します。
注意: Oracle Universal Installerは、Oracleソフトウェアのインストール時に、cluvfy を実行してすべての前提条件をチェックします。 |
Oracleソフトウェアをインストールする前に、次のようにソフトウェア・インストール・メディアのマウントポイント・パスからruncluvfy.sh
を実行してください。
cd /mountpoint ./runcluvfy.sh options
前述の例で、options
変数は選択したCVUコマンド・オプションを表します。次に例を示します。
$ cd /mnt/dvdrom $ ./runcluvfy.sh comp nodereach -n node1,node2 -verbose
CVUコマンドを入力すると、テストのサマリーが表示されます。インストール前には、CVUコマンドに-verbose
引数を使用して詳細な出力を取得することをお薦めします。-verbose
引数を指定すると、個々のチェックの詳細な出力が生成されます。適用可能な場合は、各ノードの結果が表レイアウトで表示されます。
cluvfy
コマンドを使用して、CVUコマンドライン・ツールを実行します。cluvfy
を使用しても、クラスタ環境またはインストールされたソフトウェアに悪影響を及ぼすことはありません。cluvfy
コマンドは、Oracle Clusterwareのインストール前を含む任意のタイミングで実行できます。実際には、CVUは、ハードウェアおよびオペレーティング・システムが稼働するとすぐに使用できるように設計されています。ノード上のOracle Clusterwareを必要とするコマンドを実行したときにそのノード上にOracle Clusterwareがまだインストールされていない場合には、CVUはエラーをレポートします。
CVUコマンドとともに使用するノード・リストは、ドメインを含まないホスト名のカンマ区切りのリストである必要があります。CVUがノード・リストを処理する際にはドメインは無視されます。ドメイン情報を削除した後、CVUのコマンド・エントリに重複するノード・エントリがある場合には、CVUは重複するノード・エントリを削除します。サポートされている場合、-n all
オプションを使用して、特定のOracle RACのインストール環境に含まれるすべてのクラスタ・ノードを検証できます。
ネットワーク接続の検証では、CVUコマンドラインでインタフェースを指定しない場合、CVUによって、すべての使用可能なネットワーク・インタフェースが検出されます。記憶域のアクセス性の検証では、コマンドラインで特定の記憶域のIDを指定しない場合、CVUはサポートされるすべての記憶域タイプの共有記憶域を検出します。使用可能な場合、Oracle ClusterwareのホームもCVUにより検出されます。
CVUの構成ファイル
CVUの構成ファイルを使用して、CVUの実行のための特定の入力を定義できます。構成ファイルのパスは、Grid_home
/cv/admin/cvu_config
(Windowsプラットフォームの場合はStaging_area
\clusterware\stage\cvu\cv\admin
)です。このファイルをテキスト・エディタを使用して変更できます。CVUへの入力は、キー・エントリの形式で定義されています。CVUの構成ファイルを変更する場合、次の規則に従う必要があります。
キー・エントリの構文はname=value
です。
各キー・エントリおよびキーに割り当てられた値は、1つのみのプロパティを定義します。
シャープ記号(#
)で始まる行はコメント行であり、無視されます。
name=value
という構文に従っていない行は無視されます。
CVUによってサポートされるキーのリストを次に示します。
CV_NODE_ALL
: 設定すると、Oracle Clusterwareがインストールされておらずコマンドラインで-n
allオプションが使用された場合に選択する必要があるノードのリストが指定されます。デフォルトでは、このエントリはコメント・アウトされています。
CV_ORACLE_RELEASE
: 検証を実行する必要がある特定のOracleリリース(10gR1
、10gR2
、11gR1
または11gR2
)を指定します。これを設定すると、-r
release
オプションが適用される場合であっても、このオプションを使用する必要がなくなります。デフォルト値は11gR2
です。
CV_RAW_CHECK_ENABLED
: TRUE
に設定すると、LinuxおよびUnixシステム上の共有ディスクのアクセス性チェックが有効になります。この共有ディスクのアクセス性チェックには、すべてのノード上にcvuqdisk
RPMパッケージ・マネージャ(rpm)がインストールされていることが必要です。デフォルトでは、このキーはTRUE
に設定されており、共有ディスクのチェックが有効になっています。
CV_ASSUME_DISTID
: このプロパティは、CVUが特定のプラットフォームまたは配布を検出またはサポートできない場合に使用されます。CVUが無効になる可能性があるため、このプロパティを変更することはお薦めしません。
CV_XCHK_FOR_SSH_ENABLED
: TRUE
に設定すると、ssh
を使用してユーザー等価関係を検証するためのX-Windowsチェックが有効になります。デフォルトでは、このエントリはコメント・アウトされており、X-Windowsチェックは無効になっています。
ORACLE_SRVM_REMOTECOPY
: 設定すると、scp
またはrcp
コマンドの位置を指定してCVUのデフォルト値が上書きされます。デフォルトでは、このエントリはコメント・アウトされており、CVUは/usr/bin/scp
および/usr/sbin/rcp
を使用します。
ORACLE_SRVM_REMOTESHELL
: 設定すると、ssh/rsh
コマンドの位置を指定してCVUのデフォルト値が上書きされます。デフォルトでは、このエントリはコメント・アウトされており、ツールは/usr/sbin/ssh
および/usr/sbin/rsh
を使用します。
CV_ASSUME_CL_VERSION
: デフォルトで、コマンドライン解析機能は、コマンドライン構文の使用方法の表示および構文の検証にcrs activeversion
を使用します。このプロパティを使用して、コマンドライン構文の表示および検証用にcrs activeversion
以外のバージョンを渡します。デフォルトでは、このエントリはコメント・アウトされています。
CVUは構成ファイルに定義されたキー・エントリを検出できない場合、CVUはキーの名前に一致する環境変数を検索します。環境変数が設定されている場合、CVUはその値を使用し、環境変数が設定されていない場合、CVUはこのエンティティのデフォルト値を使用します。
権限およびセキュリティ
CVUでは、現行のユーザーがインストールされたOracleソフトウェアを所有しているユーザー(oracle
など)であると想定されます。CVUコマンドのほとんどは、root
ユーザーである必要はありません。
CVUヘルプの使用
cluvfy
コマンドには、入力されたコマンドライン引数に基づいて使用方法を表示する状況依存ヘルプがあります。たとえば、cluvfy
と入力すると、ステージおよびコンポーネントの構文について説明する、一般的な使用方法を示す高水準のテキストがCVUにより表示されます。状況依存ヘルプのコマンドのリストを次に示します。
cluvfy -help
: CVUは、CVUコマンドの詳細情報を表示します。
cluvfy -version
: CVUは、Oracle Clusterwareのバージョンを表示します。
cluvfy comp -list
: CVUは、チェック可能なコンポーネントのリストと、ユーティリティが各コンポーネントをチェックする方法についての簡単な説明を表示します。
cluvfy comp -help
: CVUは、それぞれの有効なコンポーネントをチェックするための詳細な構文を表示します。
cluvfy stage -list
: CVUは、有効なステージのリストを表示します。
cluvfy stage -help
: CVUは、それぞれの有効なステージをチェックするための詳細な構文を表示します。
また、任意のCVUコマンドに-help
オプションを使用することもできます。たとえば、cluvfy stage -pre nodeadd -help
を実行すると、この特定のコマンドに関する詳細情報が戻されます。
無効なCVUコマンドを入力すると、CVUによって、そのコマンドの正しい使用方法が表示されます。たとえば、cluvfy stage -pre dbinst
と入力すると、dbinst
ステージの事前チェック・コマンドの正しい構文がCVUにより表示されます。CVUコマンドの詳細を表示するには、cluvfy -help
と入力します。
この項には次のトピックが含まれます:
修正スクリプトの生成
特定のCVUコマンドで-fixup
フラグを指定すると、インストール前にfixupスクリプトを生成できます。また、Oracle Universal Installerでは、インストール中にfixupスクリプトを生成することもできます。その後、インストーラによって、個々のターミナル・セッションでroot
としてスクリプトを実行するように要求されます。fixupスクリプトをコマンドラインから生成した場合は、生成したスクリプトをroot
として実行できます。スクリプトを実行すると、カーネルの値が最低限必要な値に引き上げられ、必要に応じて、他のオペレーティング・システムの構成が実行されます。
デフォルトでは、修正スクリプトはLinuxおよびUNIXシステムの/tmp
ディレクトリ、およびWindowsシステムのTEMP
環境変数に指定されている場所に生成されます。修正スクリプトの生成場所として別の場所を指定するには、cluvfy stage -pre crsinst
コマンドを使用できます。次に例を示します。
cluvfy stage -pre crsinst -n node1 -fixup -fixupdir /db11202/fixit.sh
CVUを使用した、インストールの前提条件を満たしているかどうかの確認
CVUを使用して、インストールに関するシステムの前提条件が満たされているかどうかを確認できます。既存のOracleソフトウェア・インストールがあるシステムにOracle 11gリリース2(11.2)ソフトウェアをインストールする場合に、このオプションを使用します。このオプションを使用する際には、次の点に注意してください。
インストールの実行に使用する予定のユーザー・アカウントでCVUを実行する必要があります。CVUはroot
では実行できず、また、インストールを実行するユーザー以外のユーザーでCVUを実行すると、インストールまたはその他の構成チェックに対してユーザーおよびグループの構成の正確さが保証されません。
クラスタ全体のステータスのチェックを完了するには、その前にすべてのクラスタ・ノードでSSHを構成する必要があります。インストーラを使用してSSHの構成を実行するか、またはユーザー自身がクラスタ内のすべてのノード間でSSHの構成を実行できます。CVUを使用して、SSH接続を構成する修正スクリプトを生成することもできます。
CVUでは完了しておく必要があるインストール前の手順を検出することができますが、インストール前のタスクは実行できません。
完了しているインストール前の手順、および実行する必要のあるインストール前の手順を確認するには、次の構文を使用します。必要に応じて、-fixup
を指定してコマンドを実行し、カーネルの構成タスクを実行するfixupスクリプトを生成します。
$ ./runcluvfy.sh stage -pre crsinst -fixup -n node_list
前述の構文例のnode_list
変数には、クラスタ内のノードの名前をカンマで区切って指定します。Windowsの場合、カンマで区切られたノードのリストは二重引用符(""
)で囲む必要があります。
たとえば、マウントポイントが/mnt/dvdrom/
で、ノードがnode1
、node2
およびnode3
のクラスタの場合は、次のようにコマンドを入力します。
$ cd /mnt/dvdrom/ $ ./runcluvfy.sh stage -pre crsinst -fixup -n node1,node2,node3
CVUのレポートを確認して、必要に応じて追加の手順を実行します。
関連項目: 製品のインストールの詳細は、ご使用のプラットフォーム固有のインストレーション・ガイドを参照してください。 |
Oracle Database 10gリリース1または2でのCVUの使用
Oracle Database 11gリリース2(11.2)メディアのCVUを使用すると、Oracle Database 10gリリース1(10.1)以降のインストールのためのシステム要件をチェックできます。CVUを使用してOracle Clusterwareのインストールをチェックするには、標準のCVUシステム・チェック・コマンドに、コマンド-r
release_code
フラグを追加します。
たとえば、メディアのマウントポイントが/mnt/dvdrom/
で、クラスタ・ノードがnode1
、node2
およびnode3
であるシステムで、Oracle Clusterwareバージョン10.2のインストール前に検証チェックを実行するには、次のようにコマンドを入力します。
$ cd /mnt/dvdrom $ ./runcluvfy.sh stage -pre crsinst -n node1,node2,node3 -r 10gR2
注意: チェックするリリース・バージョンを指定しなかった場合、CVUは、11gリリース2(11.2)の要件についてチェックします。 |
開始基準および終了基準
ステージを検証する際に、CVUは、開始基準および終了基準を使用します。各ステージに開始基準が設定されており、そのステージを開始する前に実行される特定の検証タスクのセットが定義されています。このチェックを行うと、そのステージのOracle Clusterwareの前提条件を満たさないかぎり、Oracle Clusterwareのインストールなどのステージを開始できません。
ステージの終了基準は、ステージの完了後に実行する必要がある検証タスクの別のセットを定義します。事後チェックによって、ステージのアクティビティが確実に完了します。事後チェックでは、後続のステージに伝播する前にステージ固有の問題が識別されます。
冗長モードおよびUNKNOWN出力
デフォルトでは、CVUによるレポートは非冗長モードでテストのサマリーのみがレポートされますが、-verbose
引数を使用すると詳細な出力を取得できます。-verbose
引数を指定すると、個別のチェックの詳細な出力が生成され、適用可能な場合には各ノードの結果が表レイアウトで表示されます。
cluvfy
コマンドが特定のノードについてUNKNOWN
と応答した場合、これは、チェックの合格または失敗をCVUが判別できないためです。この原因は、そのノードに対する到達可能性がないか、またはユーザー等価関係が存在しないことです。また、CVUによるチェックの実行時にそのノード上で発生していたシステムの問題が原因の場合もあります。
UNKNOWN
という結果について考えられる原因のリストを次に示します。
ノードが停止している
Grid_home
/bin
またはOracle home
ディレクトリにCVUが必要とする実行可能ファイルが存在しない
CVUを実行したユーザー・アカウントに対して、ノード上の一般的なオペレーティング・システム実行可能ファイルを実行する権限が付与されていない
オペレーティング・システム・パッチまたは必要なパッケージがノードに適用されていない
ノードでのプロセス数またはオープン・ファイル数が最大数を超えているか、または共有メモリーやセマフォなどのIPCセグメントに問題がある
CVUのノード・リストのショートカット
CVUにクラスタのすべてのノードのリストを提供するには、-n all
と入力します。CVUは、次の順序でノード・リストの取得を試行します。
ベンダーのクラスタウェアが使用可能な場合、CVUは、lsnodes
ユーティリティを使用して、構成されているすべてのノードをベンダーのクラスタウェアから選択します。
Oracle Clusterwareがインストールされている場合、CVUは、olsnodes
ユーティリティを使用して、構成されているすべてのノードをOracle Clusterwareから選択します。
ベンダーのクラスタウェアおよびOracle Clusterwareのいずれもインストールされていない場合、CVUは、構成ファイルでCV_NODE_ALL
キーの値を検索します。
ベンダーのクラスタウェアおよびOracle Clusterwareのいずれもインストールされておらず、構成ファイルにCV_NODE_ALL
というキーが存在しない場合、CVUは、環境変数CV_NODE_ALL
の値を検索します。この変数が設定されていない場合、CVUはエラーをレポートします。
環境変数を設定してその変数をCVUコマンドに使用すると、部分的なノード・リストを提供できます。たとえば、LinuxまたはUNIXのシステム上で次のように入力できます。
setenv MYNODES node1,node3,node5 cluvfy comp nodecon -n $MYNODES [-verbose]
この項では、次のCVUコマンドについて説明します。
クラスタ内のすべてのノード上でOracle ASM クラスタ・ファイル・システムの整合性をチェックするには、cluvfy comp acfs
コンポーネント検証コマンドを使用します。
Oracle ClusterwareおよびOracle RACソフトウェアのインストール、およびOracle RACデータベースの作成またはOracle RACデータベース構成の変更を行う場合のユーザー・アカウントと管理権限を検証するには、cluvfy comp admprv
コマンドを使用します。
構文
cluvfy comp admprv [-n node_list] { -o user_equiv [-sshonly] | -o crs_inst [-orainv orainventory_group] | -o db_inst [-osdba osdba_group] [-fixup [-fixupdir fixup_dir]] | -o db_config -d oracle_home [-fixup [-fixupdir fixup_dir]] } [-verbose]
パラメータ
表A-3 cluvfy comp admprvコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
-o user_equiv [-sshonly] |
ノード間のユーザー等価関係をチェックします。LinuxおよびUNIXのプラットフォーム上では、このコマンドはまず
|
-o crs_inst |
Oracle Clusterwareをインストールするための管理権限をチェックします。 |
-orainv orainventory_group
|
Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、 |
-o db_inst |
Oracle RACをインストールするための管理権限をチェックします。 |
-osdba osdba_group
|
OSDBAグループの名前です。このオプションを指定しない場合、CVUは、 |
-o db_config |
Oracle RACデータベースを作成または構成するための管理権限をチェックします。 |
-d oracle_home
|
Oracle softwareをインストールするディレクトリです。 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-verbose |
CVUは詳細な出力を表示します。 |
使用上の注意
デフォルトでは、等価関係のチェックでは、Xフォワードを無効にしているかどうか、環境変数DISPLAY
を適切に設定しているかどうかなど、X-Windows構成の検証は行われません。
ユーザー等価関係のチェックでX-Windowsについて検証するには、cluvfy comp admprv -o user_equiv
コマンドを実行する前にCV_HOME/cv/admin/cvu_config
ディレクトリに存在する構成ファイルでCV_XCHK_FOR_SSH_ENABLED
キーをTRUE
に設定します。
例
例1: すべてのノードのユーザー等価関係の検証
次のコマンドを実行すると、すべてのノードのユーザー等価関係を検証できます。
cluvfy comp admprv -n all -o user_equiv -verbose
例2: Oracle Clusterwareのインストールに必要な権限の検証
次のコマンドを実行すると、Oracle Clusterwareのインストールに必要な権限が、ノードracnode1
およびracnode2
で構成されているかどうかを検証できます。
cluvfy comp admprv -n racnode1,racnode2 -o crs_inst -verbose
例3: Oracle RACデータベースの管理権限の検証
次のコマンドを実行すると、C:\app\oracle\product\11.2.0\dbhome_1
Oracleホーム・ディレクトリを使用しているOracle RACデータベースの作成または変更に必要な権限を検証し、その権限を構成するスクリプトを生成できます。
cluvfy comp admprv -n all -o db_config -d C:\app\oracle\product\11.2.0\dbhome_1 -fixup -verbose
クラスタ内のすべてのノード上でOracle Automatic Storage Management(Oracle ASM)の整合性をチェックするには、cluvfy comp asm
コンポーネント検証コマンドを使用します。このチェックでは、指定ノードのASMインスタンスが同じOracleホームから実行されていること、およびasmlib
が存在する場合は、これが有効なバージョンであり、所有権を持つことが確認されます。
例
すべてのノードのOracle ASMの整合性の検証
クラスタのすべてのノードのOracle ASMの整合性を検証するには、次のコマンドを使用します。
cluvfy comp asm –n all
このコマンドを実行すると、次のような出力が生成されます。
Verifying ASM Integrity Task ASM Integrity check started... Starting check to see fi ASM is running on all cluster nodes... ASM Running check passed. ASM is running on all specified nodes Starting Disk Groups check to see if at least one Disk Group configured... Disk Group Check passed. At least one Disk Group configured Task ASM Integrity check passed... Verification of ASM Integrity was successful.
-fオプションで指定するクラスタ化ファイル・システム(Windows用のOCFSまたはOCFS2)の整合性をチェックするには、cluvfy comp cfs
コンポーネント検証コマンドを使用します。CVUは、ノード・リスト内のノードのファイル・システムの共有をチェックします。
ノード・リストのすべてのノード間のクロック同期を実行するには、cluvfy comp clocksync
コンポーネント検証コマンドを使用します。CVUは、時刻同期サービス(Oracleクラスタ時刻同期化サービス(CTSS)またはネットワーク・タイム・プロトコル(NTP))が実行されていること、各ノードがクロック同期用に同じ参照サーバーを使用していること、および各ノードの時間オフセットが許容範囲内であることを検証します。
ノード・リスト内のすべてのノード上でCluster ManagerサブコンポーネントまたはOracleクラスタ同期サービス(CSS)の整合性をチェックするには、cluvfy comp clumgr
コンポーネント検証コマンドを使用します。
Oracle Database 11gリリース2(11.2.0.2)以降では、ネットワークにDHCPサーバーが存在すること、および必要なIPアドレス数を提供可能かどうかを検証するには、cluvfy comp dhcp
コンポーネント検証コマンドを使用します。この検証では、DHCPサーバーの応答時間も検証します。このコマンドは、root
で実行する必要があります。
構文
# cluvfy comp dhcp -clustername cluster_name [-vipresname vip_resource_name] [-port dhcp_port] [-n node_list] [-verbose]
パラメータ
表A-10 cluvfy comp dhcpコマンドのパラメータ
パラメータ | 説明 |
---|---|
-clustername cluster_name
|
DHCPの整合性を確認するクラスタの名前です。 |
-vipresname vip_resource_name
|
VIPリソースの名前です。 |
-port dhcp_port
|
DHCPがリスニングするポートです。デフォルトのポートは67です。 |
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
-verbose |
CVUは詳細な出力を表示します。 |
Oracle Database 11gリリース2 (11.2.0.2)以降では、cluvfy comp dns
コンポーネント検証コマンドを使用してグリッド・ネーミング・サービス(GNS)サブドメインの委譲がドメイン名サービス(DNS)サーバーで適切に設定されているかを検証します。
クラスタの1つのノードでcluvfy comp dns -server
を実行します。クラスタの各ノードでcluvfy comp dns -client
を実行し、クラスタのDNSサーバー設定を検証します。
構文
cluvfy comp dns -server -domain gns_sub_domain -vipaddress gns_vip_address] [-port dns_port] [-verbose] cluvfy comp dns -client -domain gns_sub_domain -vip gns_vip [-port dns_port] [-last] [-verbose]
パラメータ
表A-11 cluvfy comp dnsコマンドのパラメータ
パラメータ | 説明 |
---|---|
-server |
|
-client |
指定したアドレスで起動されるテストDNSサーバーへの接続を検証します。DNSサーバーの起動時に指定した情報と同じ内容を指定する必要があります。 |
-domain gns_sub_domain
|
GNSのサブドメイン名です。 |
-vipaddress gns_vip_address
|
|
-vip gns_vip
|
GNSの仮想IPアドレスであり、IPアドレスに解決される名前またはドット区切りの10進数数字のIPアドレスのいずれかです。 |
-port dns_port
|
DNSがリスニングするポートです。デフォルトのポートは53です。 |
-last |
すべての検証が完了すると、テストDNSサーバーに終了リクエストを送信します。 |
-verbose |
CVUは詳細な出力を表示します。 |
Oracle Clusterwareホームの記憶域で利用できる空き領域をチェックして、合計領域の5%以上が利用できることを確認するには、cluvfy comp freespace
コンポーネント検証コマンドを使用します。たとえば、記憶域の合計が10GBの場合、このチェックで500MB以上が空いていることを確認します。
クラスタ上のOracleグリッド・ネーミング・サービス(GNS)の整合性を検証するには、cluvfy comp gns
コンポーネント検証コマンドを使用します。
構文
cluvfy comp gns -precrsinst -domain gns_domain -vip gns_vip [-n node_list] [-verbose] cluvfy comp gns -postcrsinst [-verbose]
パラメータ
表A-12 cluvfy comp gnsコマンドのパラメータ
パラメータ | 説明 |
---|---|
-precrsinst |
Oracle Clusterwareのインストール前に、GNSドメイン名とGNS VIPをチェックします。 |
-domain gns_domain
|
GNSのサブ・ドメイン名です。 |
-vip gns_vip
|
GNSの仮想IPアドレスです。 |
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
-postcrsinst |
クラスタのすべてのノードのGNSの整合性を確認します。 |
-verbose |
CVUは詳細な出力を表示します。 |
Oracle ClusterwareおよびOracle Databaseインストールをチェックして、必須要件およびベスト・プラクティス・ガイドラインへの適合性を調べたり正しく動作していることを確認するには、cluvfy comp healthcheck
コンポーネント検証コマンドを使用します。
構文
cluvfy comp healthcheck [-collect {cluster|database}] [-db db_unique_name] [-bestpractice|-mandatory] [-deviations] [-html] [-save [-savedir directory_path]]
パラメータ
表A-14 cluvfy comp healthcheckコマンドのパラメータ
パラメータ | 説明 |
---|---|
-collect {cluster|database} |
Oracle Clusterware ( |
-db db_unique_name
|
CVUでは、JDBCを使用して
|
[-bestpractice|-mandatory [-deviations]] |
ベスト・プラクティスのチェックを指定するためには |
-html |
|
-save [-savedir directory_path]
|
|
指定したすべてのノード上でノード・アプリケーション(VIP、NETWORK、ONSおよびGSD)の存在をチェックするには、コンポーネント・コマンドcluvfy comp nodeapp
を使用します。
ノード・リストに指定されたノード間の接続性をチェックするには、cluvfy comp nodecon
コンポーネント検証コマンドを使用します。インタフェース・リストを指定した場合、CVUは、指定したインタフェースのみを使用して接続性をチェックします。
使用上の注意
このコマンドを冗長モードで実行して、インタフェース、IPアドレスおよびサブネット間のマッピングを識別できます。
CVUを使用して次の操作を実行するには、-i
オプションを指定せず、-n
にall
を設定してnodecon
コマンドを使用します。
クラスタ・ノード上で使用可能なすべてのネットワーク・インタフェースの検出
インタフェースの対応するIPアドレスおよびサブネットの確認
VIPとしての使用に適したインタフェースのリストおよびプライベート・インターコネクトのインタフェースのリストの取得
これらのインタフェースを介したすべてのノード間の接続性の検証
例
例1: 特定のネットワーク・インタフェースを介したノード間の接続性の検証
次のコマンドを実行すると、インタフェースeth0
を介してnode1
およびnode3
のノード間の接続性を検証できます。
cluvfy comp nodecon -n node1,node3 –i eth0 -verbose
例2: 使用可能なすべてのネットワーク・インタフェースの検出およびそれらのネットワーク・インタフェースを介したノード間の接続性の検証
クラスタ・ノード上で使用可能なすべてのネットワーク・インタフェースを検出するには、次のコマンドを使用します。これで、CVUによって、インタフェースの対応するIPアドレスおよびサブネットが確認されます。次に、この情報を使用して、VIPとしての使用に適したインタフェースのリストおよびプライベート・インターコネクトのインタフェースのリストがCVUにより取得されます。最後に、これらのインタフェースを介したクラスタ内のすべてのノード間の接続性がCVUにより検証されます。
cluvfy comp nodecon -n all -verbose
指定したノードのソース・ノードからの到達可能性をチェックするには、cluvfy comp nodereach
コンポーネント検証コマンドを使用します。
指定したすべてのノード上でOracle Cluster Registry(OCR)の整合性をチェックするには、cluvfy comp ocr
コンポーネント検証コマンドを使用します。
例
ローカル・ノードでのOCRの整合性の検証
ローカル・ノードでのOCRの整合性を検証するには、次のコマンドを実行します。
cluvfy comp ocr
このコマンドを実行すると、次のような出力が生成されます。
Verifying OCR integrity Checking OCR integrity... Checking the absence of a non-clustered configurationl... All nodes free of non-clustered, local-only configurations ASM Running check passed. ASM is running on all specified nodes Checking OCR config file ”/etc/oracle/ocr.loc”... OCR config file ”/etc/oracle/ocr.loc” check successful Disk group for ocr location ”+DATA” available on all the nodes NOTE: This check does not verify the integrity of the OCR contents. Execute ’ocrcheck' as a privileged user to verify the contents of OCR. OCR integrity check passed Verification of OCR integrity was successful.
Oracle高可用性サービス・デーモンの整合性をチェックするには、cluvfy comp ohasd
コンポーネント検証コマンドを使用します。
例
クラスタのすべてのノード上のOracle高可用性サービス・デーモンの整合性の検証
Oracle高可用性サービス・デーモンがクラスタのすべてのノードで正常に動作しているかどうかを検証するには、次のコマンドを使用します。
cluvfy comp ohasd -n all -verbose
このコマンドを実行すると、次のような出力が生成されます。
Verifying OHASD integrity Checking OHASD integrity... ohasd is running on node ”node1” ohasd is running on node ”node2” ohasd is running on node ”node3” ohasd is running on node ”node4” OHASD integrity check passed Verification of OHASD integrity was successful.
ローカル・ノード上でOracle Local Registry(OLR)の整合性をチェックするには、cluvfy comp olr
コンポーネント検証コマンドを使用します。
-verbose
オプションを指定すると、CVUは詳細な出力を表示します。
例
ノードのOLRの整合性の検証
現行のノードでOLRの整合性を検証するには、次のコマンドを実行します。
cluvfy comp olr -verbose
このコマンドを実行すると、次のような出力が生成されます。
Verifying OLR integrity Checking OLR integrity... Checking OLR config file... OLR config file check successful Checking OLR file attributes... OLR file check successful WARNING: This check does not verify the integrity of the OLR contents. Execute ’ocrcheck -local' as a privileged user to verify the contents of OLR. OLR integrity check passed Verification of OLR integrity was successful.
参照ノードに対する指定ノードの互換性およびプロパティをチェックするには、cluvfy comp peer
コンポーネント検証コマンドを使用します。デフォルトのユーザー・グループ名以外の互換性、および異なるリリースのOracleソフトウェアの互換性をチェックできます。このコマンドは、ユーザーとグループの値、カーネル設定およびインストール済オペレーティング・システム・パッケージの他、メモリー、スワップ領域などの物理的な属性を比較します。
構文
cluvfy comp peer -n node_list [-refnode node] [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-orainv orainventory_group] [-osdba osdba_group] [-verbose]
パラメータ
表A-20 cluvfy comp peerコマンドのパラメータ
パラメータ | 説明 |
---|---|
-refnode |
他のノードとの互換性をチェックするための参照ノードとしてCVUが使用するノードです。このオプションを指定しない場合、CVUは、ノード・リスト内のすべてのノードについての値をレポートします。 |
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 |
-r {10gR1 | 10gR2 | 11gR1 | 11gR2} |
Oracle ClusterwareまたはOracle RACのインストール要件に合わせて、CVUがチェックするソフトウェア・リリースを指定します。このオプションを指定しない場合、CVUは、Oracle ClusterwareまたはOracle Database 11gリリース2(11.2)を想定します。 |
-orainv orainventory_group
|
Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、 注意: このパラメータは、Windowsシステムでは使用できません。 |
-osdba osdba_group
|
OSDBAグループの名前です。このオプションを指定しない場合、CVUは、 注意: このパラメータは、Windowsシステムでは使用できません。 |
-verbose |
CVUは詳細な出力を表示します。 |
単一クライアント・アクセス名(SCAN)構成をチェックするには、cluvfy comp scan
コンポーネント検証コマンドを使用します。
例
SCAN構成の検証
SCANおよびSCANリスナーが構成されていて、クラスタのすべてのノードで動作することを検証するには、次のコマンドを使用します。
cluvfy comp scan
このコマンドを実行すると、次のような出力が生成されます。
Verifying scan Checking Single Client Access Name (SCAN)... Checking TCP connectivity to SCAN Listeners... TCP connectivity to SCAN Listeners exists on all cluster nodes Checking name resolution setup for ”node1.example.com”... Verification of SCAN VIP and Listener setup passed Verification of scan was successful.
Oracleソフトウェアでインストールされるファイルおよび属性をチェックするには、cluvfy comp software
コンポーネント検証コマンドを使用します。
構文
cluvfy comp software [-n node_list] [-d oracle_home] [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-verbose]
パラメータ
表A-21 cluvfy comp softwareコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
-d oracle_home
|
Oracle Databaseソフトウェアをインストールするディレクトリです。このオプションを指定しない場合、Gridホームにインストールされるファイルが検証されます。 |
-r {10gR1 | 10gR2 | 11gR1 | 11gR2} |
Oracle ClusterwareまたはOracle RACのインストール要件に合わせて、CVUがチェックするソフトウェア・リリースを指定します。このオプションを指定しない場合、CVUは、Oracle ClusterwareまたはOracle Database 11gリリース2(11.2)を想定します。 |
-verbose |
CVUは詳細な出力を表示します。 |
例
Oracle Clusterwareホーム・ディレクトリのクラスタのすべてのノードの上のソフトウェア構成の確認
Oracle Clusterware 11gリリース2のインストール済ファイルが正しく構成されていることを検証するには、次のようなコマンドを使用します。
cluvfy comp software -n all -verbose
このコマンドを実行すると、次のような出力が生成されます。
Verifying software Check: Software 1021 files verified Software check passed Verification of software was successful.
指定したすべてのノードに対して、-lオプションで指定した場所のディスクの空き領域をチェックするには、cluvfy comp space
コンポーネント検証コマンドを使用します。
パラメータ
表A-22 cluvfy comp spaceコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
-l storage_location
|
チェックする記憶域の場所へのディレクトリ・パスです。 |
-z disk_space {B|K|M|G}
|
必要なディスク領域で、単位はバイト(B)、キロバイト(K)、メガバイト(M)またはギガバイト(G)です。数値とバイト単位を示す文字の間に空白を入れないでください(2Gなど)。整数のみを使用してください。 |
-verbose |
CVUは詳細な出力を表示します。 |
指定された記憶域の場所の共有を検出してチェックするには、cluvfy comp ssa
コンポーネント検証コマンドを使用します。CVUは、ノード・リスト内のノードの共有をチェックします。
パラメータ
表A-23 cluvfy comp ssaコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
-s storageID_list
|
記憶域IDのカンマ区切りリストです(たとえば、
|
-t {software | data | ocr_vdisk} |
記憶域デバイスで格納されるOracleファイルのタイプです。
|
-verbose |
CVUは詳細な出力を表示します。 |
使用上の注意
現行のリリースのcluvfy
には、共有記憶域アクセス性のチェックに関して、Linuxに対する次のような制限があります。
現在、NAS記憶域およびOCFS2(バージョン1.2.1以上)がサポートされています。
関連項目: NASマウント・オプションの詳細は、『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。 |
NASの共有性チェックの場合、cluvfy
コマンドを実行するには、指定されたパスに対する書込み権限が必要です。cluvfy
のユーザーに書込み権限が付与されていない場合、cluvfy
はそのパスがnot
shared
であるとレポートします。
CVUを使用してLinuxシステム上のSCSIディスクの検出および共有記憶域のアクセス性のチェックを実行するには、CVUQDISKパッケージが必要です。CVUの使用を試行したときにOracle RAC環境のいずれかのノード上にCVUQDISKパッケージがインストールされていない場合、CVUでエラーが発生します。CVUQDISKパッケージのインストール方法の詳細は、「Red Hat Linuxでの共有ディスクの検出」を参照してください。
例
例1: システム上で使用可能なすべての共有記憶域システムの検出
システム上で使用可能なすべての共有記憶域システムを検出するには、次のコマンドを実行します。
cluvfy comp ssa -n all -verbose
例2: 特定の記憶域の場所のアクセス性の検証
次のようなコマンドを実行すると、クラスタ・ノード全体のデータ・ファイルを格納する/dev/sda
などの特定の記憶域の場所のアクセス性を検証できます。
cluvfy comp ssa -n all -s /dev/sda,/dev/sdb,/dev/sdc
このコマンドを実行すると、次のような出力が生成されます。
Verifying shared storage acessibility Checking shared storage accessibility... ”/dev/sda” is shared ”/dev/sdb” is shared ”/dev/sdc” is shared Shared storage check was successful on nodes ”node1,node2,node3,node4” Verification of shared storage accessibility was successful.
指定したすべてのノード上で指定した製品のシステム最小要件が満たされているかどうかをチェックするには、cluvfy comp sys
コンポーネント検証コマンドを使用します。
構文
cluvfy comp sys [-n node_list] -p {crs | ha | database} [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-osdba osdba_group] [-orainv orainventory_group] [-fixup [-fixupdir fixup_dir]] [-verbose]
パラメータ
表A-24 cluvfy comp sysコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 このオプションを指定しない場合、CVUは、ローカル・ノードのみをチェックします。 |
|
CVUがOracle Clusterware、Oracle Restart(HA)またはOracle RACに関するシステム要件をチェックするかどうかを指定します。 |
-r {10gR1 | 10gR2 | 11gR1 | 11gR2} |
Oracle ClusterwareまたはOracle RACのインストール要件に合わせて、CVUがチェックするOracle Databaseのリリースを指定します。このオプションを指定しない場合、CVUは、Oracle Database 11gリリース2(11.2)であると想定します。 |
-osdba osdba_group
|
OSDBAグループの名前です。このオプションを指定しない場合、CVUは、 |
-orainv orainventory_group
|
Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-verbose |
CVUは詳細な出力を表示します。 |
指定したすべてのノードの投票ディスクの投票ディスク構成およびudevの設定を確認するには、cluvfy comp vdisk
コンポーネント検証コマンドを使用します。
関連項目: udevの設定の詳細は、『Oracle Grid Infrastructureインストレーション・ガイドfor Linux』 を参照してください。 |
Oracle ASMクラスタ・ファイル・システム(Oracle ACFS)を構成する前にクラスタ・ノードが正しく設定されているかどうかを検証するには、cluvfy stage -pre acfscfg
コマンドを使用します。
Oracle ACFSを構成した後に既存のクラスタをチェックするには、cluvfy stage -post acfscfg
コマンドを使用します。
構文
cluvfy stage -pre acfscfg -n node_list [-asmdev asm_device_list] [-verbose] cluvfy stage -post acfscfg -n node_list [-verbose]
パラメータ
表A-26 cluvfy stage [-pre | -post] acfscfgコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 |
-asmdev asm_device_list
|
Oracle ASMで使用する予定のデバイスのリストです。このオプションを指定しない場合、CVUは、内部のオペレーティング・システムに依存した値(たとえばLinuxシステムの場合は |
-verbose |
CVUは詳細な出力を表示します。 |
OCFS2またはWindows用のOCFSを設定する前にクラスタ・ノードが正しく設定されているかどうかを検証するには、cluvfy stage -pre cfs
ステージ検証コマンドを使用します。
OCFS2またはWindows用のOCFSを設定した後に指定ノードで適切なチェックを実行するには、cluvfy stage -post cfs
ステージ検証コマンドを使用します。
関連項目: サポートされた共有記憶域タイプのリストについては、ご使用のプラットフォームの『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。 |
構文
cluvfy stage -pre cfs -n node_list -s storageID_list [-verbose] cluvfy stage -post cfs -n node_list -f file_system [-verbose]
例
例1: OCFS2の構成前に特定の共有デバイスが正しく構成されているかどうかのチェック
OCFS2の設定前に共有デバイスが正しく構成されているかどうかをチェックするには、次のようなコマンドを使用します。/dev/sdd5をシステムの共有デバイスの名前に置き換えます。
cluvfy stage -pre cfs -n node1,node2,node3,node4 -s /dev/sdd5
例2: Windowsファイル・システム用のOCFSが正しく構成されているかどうかのチェック
Windows用のOCFSの構成が正常に完了したかどうか、およびすべてのノードがこの新しいファイル・システムにアクセスできるかどうかをチェックするには、次のようなコマンドを使用します。E:\ocfs\db1は、クラスタのWindowsファイル・システム用のOCFSの場所に置き換えます。
cluvfy stage -post cfs -n all -f E:\ocfs\db1
Oracle Clusterwareをインストールする前に、指定ノードをチェックするには、cluvfy stage -pre crsinst
コマンドを使用します。-c
および-q
オプションを指定すると、OCRおよび投票ディスクに対する追加のチェックが実行されます。
Oracle Clusterwareをインストールした後に、指定ノードをチェックするには、cluvfy stage -post crsinst
コマンドを使用します。
構文
cluvfy stage -pre crsinst -n node_list [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-c ocr_location_list] [-q voting_disk_list] [-osdba osdba_group] [-orainv orainventory_group] [-asm [-asmgrp asmadmin_group] [-asmdev asm_device_list]] [-crshome Grid_home] [-fixup [-fixupdir fixup_dir] [-networks network_list] [-verbose]] cluvfy stage -post crsinst -n node_list [-verbose]
パラメータ
表A-28 cluvfy stage [-pre | -post] crsinstコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 |
-r {10gR1 | 10gR2 | 11gR1 | 11gR2} |
Oracle Clusterwareのインストール要件に合わせて、CVUがチェックするOracle Clusterwareのリリースを指定します。このオプションを指定しない場合、CVUは、Oracle Clusterware 11gリリース2(11.2)を想定します。 |
-c ocr_location |
CVUがすべてのノードの可用性を検証する、OCRの場所またはファイルのディレクトリ・パスのカンマ区切りリストです。このオプションを指定しない場合、OCRの場所はチェックされません。 |
-q voting_disk_list
|
CVUがすべてのノードの可用性を検証する、投票ディスクのディレクトリ・パスのカンマ区切りリストです。このオプションを指定しない場合、投票ディスクの場所はチェックされません。 |
-osdba osdba_group
|
OSDBAグループの名前です。このオプションを指定しない場合、CVUは、 |
-orainv orainventory_group
|
Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、 |
-asm |
Oracle ASMがOracle Clusterwareファイルの格納に使用されることを示します。 |
-asmgrp asmadmin_group
|
OSASMグループの名前です。このオプションを指定しない場合、CVUは、 |
-asm -asmdev asm_device_list
|
CVUがすべてのノードの可用性を検証する、Oracle ASMで使用する予定のデバイスのリストです。 このオプションを指定しない場合、CVUは、内部のオペレーティング・システムに依存した値を使用します。 |
|
Oracle Grid InfrastructureまたはOracle Clusterwareホーム・ディレクトリの場所です。このオプションを指定しない場合、提供されたファイル・システムの場所で、Oracle Clusterwareインストール用に十分な空き領域があるかどうかがチェックされます。 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-networks network_list
|
|
-verbose |
CVUは詳細な出力を表示します。 |
Oracle RACデータベースを構成する前に指定したノードをチェックして、システムがデータベースの作成またはデータベースの構成の変更を行うためのすべての基準を満たしているかどうかを検証するには、cluvfy stage -pre dbcfg
コマンドを使用します。
パラメータ
表A-29 cluvfy stage -pre dbcfgコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 |
-d Oracle_home
|
チェックされているデータベースのOracleホーム・ディレクトリの場所です。 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-verbose |
CVUは詳細な出力を表示します。 |
Oracle RACデータベースのインストールまたは作成の前に指定したノードをチェックして、システムがOracle RACデータベースのインストールまたは作成のすべての基準を満たしているかどうかを検証するには、cluvfy stage -pre dbinst
コマンドを使用します。
構文
cluvfy stage -pre dbinst -n node_list [-r {10gR1 | 10gR2 | 11gR1 | 11gR2}] [-osdba osdba_group] [-d Oracle_home] [-fixup [-fixupdir fixup_dir] [-verbose]
パラメータ
表A-30 cluvfy stage -pre dbinstコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。 |
-r {10gR1 | 10gR2 | 11gR1 | 11gR2} |
Oracle RACのインストール要件に合わせて、CVUがチェックするOracle Databaseのリリースを指定します。このオプションを指定しない場合、CVUは、Oracle Database 11gリリース2(11.2)であると想定します。 |
-osdba osdba_group
|
OSDBAグループの名前です。このオプションを指定しない場合、CVUは、 |
-d Oracle_home
|
Oracle RACのインストールおよびOracle RACデータベースの作成を行うOracleホーム・ディレクトリの場所です。このオプションを指定した場合、指定した場所にデータベース・インストール用に十分な空きディスク領域があるかどうかがチェックされます。 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-verbose |
CVUは詳細な出力を表示します。 |
Oracle Restartを構成する前にローカル・ノードをチェックするには、cluvfy stage -pre hacfg
コマンドを使用します。
Oracle Restartを構成した後にローカル・ノードをチェックするには、cluvfy stage -post hacfg
コマンドを使用します。
構文
cluvfy stage -pre hacfg [-osdba osdba_group] [-orainv orainventory_group] [-fixup [-fixupdir fixup_dir]] [-verbose] cluvfy stage -post hacfg [-verbose]
パラメータ
表A-31 cluvfy stage [-pre | -post] hacfgコマンドのパラメータ
パラメータ | 説明 |
---|---|
-osdba osdba_group
|
OSDBAグループの名前です。このオプションを指定しない場合、CVUは、 |
-orainv orainventory_group
|
Oracle Inventoryグループの名前です。このオプションを指定しない場合、CVUは、 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-verbose |
CVUは詳細な出力を表示します。 |
Oracleソフトウェアをインストールする前にクラスタ内の指定したノードでネットワークおよび記憶域の検証を実行するには、cluvfy stage -post hwos
ステージ検証コマンドを使用します。また、このコマンドは、サポートされる記憶域タイプをチェックし、共有に関して各記憶域タイプをチェックします。
指定したノードを既存のクラスタに追加する前に、そのノードが正しく構成されているかどうかを検証する場合、および指定したノードを追加する前にクラスタの整合性を検証する場合は、cluvfy stage -pre nodeadd
コマンドを使用します。
このコマンドは、追加するノードのシステム構成(オペレーティング・システムのバージョン、ソフトウェア・パッチ、パッケージ、カーネル・パラメータなど)が既存のクラスタ・ノードと互換性があること、およびクラスタウェアが既存のノードで正常に動作していることを検証します。既存のクラスタの任意のノードでこのコマンドを実行します。
指定したノードがネットワーク、共有記憶域およびクラスタウェアのレベルでクラスタに正常に追加されていることを検証するには、cluvfy stage -post nodeadd
コマンドを使用します。
構文
cluvfy stage -pre nodeadd -n node_list [-vip vip_list] [-fixup [-fixupdir fixup_dir]] [-verbose] cluvfy stage -post nodeadd -n node_list [-verbose]
パラメータ
表A-33 cluvfy stage [-pre | -post] nodeaddコマンドのパラメータ
パラメータ | 説明 |
---|---|
-n node_list
|
検証を行う非ドメイン修飾ノード名のカンマ区切りリストです。これらは、クラスタに追加するノード、または追加されたノードです。 |
|
新規ノードで使用される仮想IPアドレスのカンマ区切りリストです。 |
-fixup [-fixupdir fixup_dir]
|
検証が失敗した場合に、可能であればCVUでfixupの指示を生成することを指定します。CVUでfixupの指示を生成する特定のディレクトリを指定するには、 |
-verbose |
CVUは詳細な出力を表示します。 |
この項では、次のCVUのトラブルシューティングに関する項目について説明します。
環境変数SRVM_TRACE
をtrueに設定することによって、トレースを有効にできます。たとえば、tcsh
では、setenv SRVM_TRACE true
などのエントリを使用するとトレースが有効になります。
デフォルトでは、CVUのトレース・ファイルは、CV_HOME/cv/log
ディレクトリに作成されます。ログ・ファイルは自動的にローテーションされ、最新のログ・ファイルの名前はcvutrace.log.0
になります。必要に応じて不要なログ・ファイルを削除またはアーカイブしてディスク領域を解放する必要があります。
トレースを有効にしないかぎり、CVUはトレース・ファイルを生成しません。トレース・ファイルのデフォルト以外の場所を使用するには、CV_TRACELOC
環境変数に適切なトレース・ディレクトリの絶対パスを設定します。
この項では、次に示すクラスタ検証ユーティリティ(CVU)の既知の制限について説明します。
現行のリリースのCVUでは、Oracle Database 10g以上、Oracle RACおよびOracle Clusterwareのみがサポートされており、CVUには下位互換性がありません。CVUは、Oracle Database 10gより前のOracle Database製品をチェックまたは検証することはできません。
現行のリリースのcluvfy
には、共有記憶域アクセス性のチェックに関して、Linuxに対する次のような制限があります。
OCFS2(バージョン1.2.1以上)がサポートされています。
NASの共有性チェックの場合、cluvfy
コマンドを実行するには、指定されたパスに対する書込み権限が必要です。cluvfy
コマンドを実行するユーザーに書込み権限が付与されていない場合、cluvfy
はそのパスがnot
shared
であるとレポートします。
CVUを使用してRed Hat Linux 4.0(以上)およびSUSE Linux Enterprise Server上のSCSIディスクの検出および共有記憶域のアクセス性のチェックを実行する場合、CVUQDISKパッケージが必要です。CVUの使用を試行したときにOracle RAC環境のいずれかのノード上にCVUQDISKパッケージがインストールされていない場合、CVUでエラーが発生します。
CVUQDISKパッケージをインストールするには、次の手順を実行します。
root
ユーザーとしてログインします。
パッケージcvuqdisk-1.0.6-1.rpm
(またはこれ以上のバージョン)をローカル・ディレクトリにコピーします。このrpmは、Oracle Clusterwareのインストール・メディアの最上位ディレクトリのrpm
サブディレクトリ内にあります。たとえば、cvuqdisk-1.0.6-1.rpm
は、/
mountpoint
/clusterware/rpm/
というディレクトリにあり、この場合のmountpoint
はディレクトリが配置されているディスクのマウント・ポイントです。
# cp /mount_point/clusterware/rpm/cvuqdisk-1.0.6-1.rpm /u01/oradba
CVUQDISK_GRP
環境変数を、CVUQDISKパッケージ・バイナリを所有する必要があるオペレーティング・システム・グループに設定します。CVUQDISK_GRP
が設定されていない場合、デフォルトで、oinstall
グループが所有者グループになります。
# set CVUQDISK_GRP=oinstall
コマンドrpm -q cvuqdisk
を実行して、以前のバージョンのCVUQDISKパッケージがインストールされているかどうかを判別します。以前のバージョンのCVUQDISKパッケージが検出された場合、コマンドrpm -e cvuqdisk
previous_version
を実行してこのパッケージを削除します(この場合のprevious_version
は、以前のバージョンのCVUQDISKの識別子です)。
# rpm -q cvuqdisk cvuqdisk-1.0.2-1 # rpm -e cvuqdisk-1.0.2-1
コマンドrpm -iv cvuqdisk-1.0.6-1.rpm
を実行して、最新のCVUQDISKパッケージをインストールします。
# cd /u01/oradba # rpm -iv cvuqdisk-1.0.6-1.rpm