この章では、Oracle Real Application Clusters(Oracle RAC)搭載のOracle Clusterwareを使用する場合に実行する必要がある記憶域の管理作業について説明します。
この章の内容は次のとおりです。
この項では、Oracle Databaseファイルおよびデータ・ファイルの格納用にサポートされているオプションについて説明します。
|
参照: ネットワーク接続ストレージ・オプションでサポートされているベンダーのリストについては、OracleMetalinkの「Certify」ページを参照してください。
動作保証されている記憶域オプションの最新情報についても、OracleMetalinkの「Certify」ページを参照してください。
|
Oracle Databaseおよびリカバリ・ファイルの格納には、次の3つの方法があります。
自動ストレージ管理: 自動ストレージ管理(ASM)は、Oracle Databaseファイル用の統合された高性能のファイル・システムおよびディスク・マネージャです。データベース・ファイルのストライプ化およびミラー化を自動的に実行します。
サポートされている共有ファイル・システム: サポートされているファイル・システムには、次のものがあります。
サポートされているクラスタ・ファイル・システム: データ・ファイルにクラスタ・ファイル・システムを使用する場合は、Oracle Clusterware用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。
|
参照: サポートされているクラスタ・ファイル・システムについては、OracleMetalinkの「Certify」ページを参照してください。 |
OracleMetalinkの「Certify」ページに示されているNASネットワーク・ファイル・システム(NFS): データ・ファイルにNFSを使用する場合、Oracle Clusterware用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。
|
参照: サポートされているネットワーク接続ストレージ(NAS)デバイスおよびサポートされているクラスタ・ファイル・システムについては、OracleMetalinkの「Certify」ページを参照してください。 |
RAWデバイス: 各データベース・ファイルにパーティションが必要です。ASMを使用しない場合、RAWデバイスへの新しいインストールでは、カスタム・インストールを使用する必要があります。
すべてのインストールに対して、Oracle Databaseファイル、またはOracle RAC搭載のOracle Clusterwareで使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にする場合は、リカバリ・ファイル(フラッシュ・リカバリ領域)で使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。
フェイルオーバーにOracle Clusterwareを使用するシングル・インスタンスのOracle Databaseインストールでは、フェイルオーバー・プロセスにローカル・ファイル・システムのディスマウントおよび再マウントを含めない場合、ASMまたは共有RAWディスクを使用する必要があります。
次の表に、Oracle DatabaseファイルおよびOracle Databaseのリカバリ・ファイルを格納するために使用できる記憶域オプションを示します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
|
注意: Oracle RAC環境でサポートされる記憶域オプションの最新情報は、次のOracle MetaLink Webサイトの「Certify」ページを参照してください。
|
表5-1 Oracle Databaseおよびリカバリ・ファイルでサポートされている記憶域オプション
| 記憶域オプション | サポートされるファイル・タイプ | |
|---|---|---|
| データベース | リカバリ | |
|
自動ストレージ管理 |
可 |
可 |
|
ローカル記憶域 |
不可 |
不可 |
|
NFSファイル・システム 注意: 動作保証されているNASデバイスが必要です。 |
可 |
可 |
|
共有RAWデバイス |
可 |
不可 |
次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
データベースおよびリカバリ・ファイルの記憶域オプションとして、自動ストレージ管理(ASM)を選択することをお薦めします。
Standard EditionのOracle RACインストールでは、データベース・ファイルまたはリカバリ・ファイルの記憶域オプションとして、ASMのみがサポートされています。
Oracle RACでASMを使用するために新しいASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ内のすべてのノードに11gリリース1(11.1)のOracle Clusterwareがインストールされている。
クラスタ内のすべてのノードで既存のすべてのASMインスタンスが停止されている。
既存のOracle RACデータベースまたはASMインスタンスが起動されているOracle RACデータベースをアップグレードする場合は、システムが次の条件を満たすようにする必要があります。
Oracle Universal Installer(OUI)およびDatabase Configuration Assistant(DBCA)が、Oracle RACデータベースまたはASMインスタンスが起動されているOracle RACデータベースのあるノードで実行されている。
Oracle RACデータベースまたはASMインスタンスが起動されているOracle RACデータベースが、新しいクラスタ・インストールのメンバーにするノードと同じノードで実行されている。たとえば、既存のOracle RACデータベースを3ノードのクラスタで実行している場合は、3つすべてのノードにアップグレードをインストールする必要があります。アップグレード時に3つ目のインスタンスを削除して、クラスタ内の2つのノードのみをアップグレードすることはできません。
|
参照: 既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。 |
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle Clusterwareの記憶域をインストールおよび構成し、Oracle Databaseファイルのディスク記憶域オプションを確認した後、次の作業をここに示す順序どおりに実行する必要があります。
1: CVUを使用した使用可能な共有記憶域の確認
「CVUを使用した使用可能な共有記憶域の検証」を参照してください。
2: Oracle Databaseファイルおよびリカバリ・ファイル用の記憶域の構成
データベース・ファイルまたはリカバリ・ファイル記憶域に共有ファイル・システムを使用する場合: 「サポートされる共有ファイル・システムでのOracle Databaseファイル用の記憶域の構成」を参照してください。また、Oracle Clusterwareファイル用に作成するボリュームの他に、データベース・ファイルを格納するのに十分なサイズのボリュームをさらに作成する必要があります。
データベース・ファイルまたはリカバリ・ファイルの記憶域に自動ストレージ管理を使用する場合: 「自動ストレージ管理用のディスクの構成」を参照してください。
データベース・ファイル記憶域に共有デバイスを使用する場合: 「共有記憶域デバイスでのOracle Databaseファイル用の記憶域の構成」を参照してください。
データベース・ファイル記憶域にRAWデバイス(パーティション)を使用する場合: 「RAWデバイスでのデータベース・ファイル用のディスクの構成」を参照してください。
サポートされている共有ファイル・システムについて、クラスタ内のすべてのノードで使用可能な共有ファイル・システムを検証するには、インストール所有者ユーザー(oracleまたはcrs)としてログインし、次の構文を使用します。
/mountpoint/runcluvfy.sh comp ssa -n node_list
クラスタ内の特定のノードと特定の共有記憶域タイプの間の共有アクセス性を検証する場合は、次のコマンド構文を使用します。
/mountpoint/runcluvfy.sh comp ssa -n node_list -s storageID_list
前述の構文例で、mountpoint変数はインストール・メディアのマウント・ポイント・パス、node_list変数は検証するノードのカンマ区切りリスト、storageID_list変数は検証対象のファイル・システム・タイプによって管理されるストレージ・デバイスのストレージ・デバイスIDのリストです。
たとえば、マウント・ポイントが/dev/dvdrom/で、ストレージ・デバイス/dw/dsk/c1t2d3および/dw/dsk/c2t4d5のnode1およびnode2からの共有アクセス性を検証する場合は、次のコマンドを入力します。
/dev/dvdrom/clusterware/cluvfy/runcluvfy.sh comp ssa -n node1,node2 -s /dw/dsk/c1t2d3,/dw/dsk/c2t4d5
コマンドに特定のストレージ・デバイスIDを指定しなかった場合は、コマンドによって、リスト上のノードに接続されているすべての使用可能なストレージ・デバイスが検索されます。
データベース・ファイルは、データベースとリカバリ領域のファイルを集めたファイルで構成されています。データベース・ファイルの格納には、4つのオプションがあります。
ネットワーク・ファイル・システム(NFS)
自動ストレージ管理(ASM)
RAWデバイス(データベース・ファイル用のみで、リカバリ領域用ではありません)
Oracle Clusterwareの構成時に、NFSを選択していて、作成したボリュームがデータベース・ファイルとリカバリ・ファイルを格納するのに十分な大きさである場合は、インストール前に必要な手順は完了です。第6章「Oracle Clusterwareのインストール」に進みます。
データベース・ファイルをASMに配置する場合は、「自動ストレージ管理用のディスクの構成」に進みます。
データベース・ファイルをRAWデバイスに配置し、データベース・ファイルおよびリカバリ・ファイルの記憶域管理を手動で行う場合は、「共有記憶域デバイスでのOracle Databaseファイル用の記憶域の構成」に進みます。
|
注意: データベースは、ASMファイルと非ASMファイルを混在させて構成できます。ASMの詳細は、『Oracle Database管理者ガイド』を参照してください。NFSの動作保証については、OracleMetaLinkの「Certify」ページを参照してください。 |
次の項で、Oracle Databaseファイル用の記憶域要件を確認します。
Oracle Databaseファイルにファイル・システムを使用する場合、そのファイル・システムは次の要件を満たす必要があります。
使用するクラスタ・ファイル・システムは、サポートされているクラスタ・ファイル・システムである必要があります。今回のリリースの時点では、サポートされているクラスタ・ファイル・システムはありません。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
oracleユーザーには、指定したパスにファイルを作成するための書込み権限が必要です。
表5-2を使用して、共有ファイル・システムのパーティション・サイズを決定します。
表5-2 共有ファイル・システムのボリューム・サイズ要件
| 格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
|---|---|---|
|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
|
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表5-2で、必要なボリューム・サイズの合計を加算して求めます。たとえば、すべてのデータベース・ファイルを共有ファイル・システムに格納するには、2つ以上のボリュームで3.4GB以上の記憶域が使用可能である必要があります。
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
この項では、Direct NFSについて説明します。内容は次のとおりです。
Oracle Database 11gリリース1(11.1)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。
Oracle DatabaseでDirect NFSを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。Direct NFSではインストール後に設定が管理されるため、ファイル・システムのマウントで使用するマウント・オプションは関係ありません。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
Direct NFSを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab)を使用して、Direct NFSにOracle Database固有のオプションを追加指定できます。たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。oranfstabファイルは、/etcまたは$ORACLE_HOME/dbsのいずれかに追加できます。oranfstabファイルでNFSまたはDirect NFSを使用する必要ありません。
Oracle RACインストールでは、Direct NFSを使用する場合、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。
oranfstabファイルが$ORACLE_HOME/dbsに格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstabファイルが使用されます。
oranfstabファイルが/etcに格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(シングル・インスタンス・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstabファイルが/etcに格納されている場合、/etc/fstabファイルの場合と同様に、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。
マウント・ポイントがDirect NFSを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。
Direct NFSでは、/etc/mtabの構成に基づいてNFS記憶域デバイスに対するマウント・ポイント設定が決定されます。このファイルの構成は、/etc/fstabファイルの構成によって変更されます。
Direct NFSでは、次の順序でマウント・エントリが検索されます。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/mtab
Direct NFSでは、最初に検出された一致エントリが使用されます。
|
注意: インスタンスごとにアクティブなDirect NFSを1つのみ実装することができます。インスタンスでDirect NFSを使用すると、別のDirect NFSは実装できなくなります。 |
Oracle Databaseでoranfstabを使用して構成されたDirect NFSマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSでは、情報メッセージが記録され、NFSサーバーは処理されません。Oracle DatabaseでDirect NFSを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・ポイントは、「Oracle RAC用のNFSマウント・バッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSを確立することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。この場合、Oracleファイルの整合性を維持するための通常の考慮事項が適用されます。
Direct NFSでは、NFSサーバー用のoranfstabファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSによって、残りのパスに対してI/Oコマンドが再発行されます。
Direct NFSの管理には、次のビューを使用します。
v$dnfs_servers: Direct NFSを使用してアクセスしたサーバーの表が表示されます。
v$dnfs_files: Direct NFSを使用して現在開かれているファイルの表が表示されます。
v$dnfs_channels: Direct NFSによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
v$dnfs_stats: Direct NFSのパフォーマンス統計の表が表示されます。
Direct NFSを有効にするには、次の手順を実行します。
Direct NFSを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstabファイルを作成します。
サーバー: NFSサーバー名。
パス: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パス。ifconfigコマンドを使用して表示できます。
エクスポート: NFSサーバーからエクスポートされたパス。
マウント: NFSサーバー用のローカル・マウント・ポイント。
|
注意: LinuxおよびUNIXプラットフォームの場合、oranfstabファイルの場所は、$ORACLE_HOME/dbsです。 |
次に、2つのNFSサーバー・エントリが含まれているoranfstabファイルの例を示します。
server: MyDataServer1 path: 132.34.35.12 path: 132.34.35.13 export: /vol/oradata1 mount: /mnt/oradata1 server: MyDataServer2 path: NfsPath1 path: NfsPath2 path: NfsPath3 path: NfsPath4 export: /vol/oradata2 mount: /mnt/oradata2 export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5
Oracle Databaseでは、Direct NFSを有効にするためにODMライブラリlibnfsodm10.soを使用します。標準のODMライブラリ$ORACLE_HOME/lib/libodm10.soをODM NFSライブラリlibnfsodm10.soに置き換えるには、次の手順を実行します。
Direct NFSクライアントを無効にするには、次のいずれかの方法を使用します。
oranfstabファイルを削除します。
「NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化」の手順2bで実行したプロセスを取り消すことによって、スタブであるlibodm10.soファイルをリストアします。
oranfstabファイル内の特定のNFSサーバーまたはエクスポート・パスを削除します。
|
注意: Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。 |
NFSを使用している場合は、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。
Direct NFSでは、書込みサイズの値(wtmax)が32768未満のNFSサーバーは処理されないことに注意してください。
各ノードの/etc/fstabファイルを次のエントリで更新します。
nfs_server:/vol/DATA/oradata /u02/oradata nfs\ rw,bg,vers=3,proto=tcp,noac,forcedirectio,hard,nointr,timeo=600,rsize=32768,wsize=32768,suid
|
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
|
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
bdfコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを選択します。
| ファイル・タイプ | ファイル・システムの要件 |
|---|---|
| データベース・ファイル | 次のいずれかを選択します。
|
| リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(フラッシュ・リカバリ領域):
# mkdir /mount_point/flash_recovery_area # chown oracle:oinstall /mount_point/flash_recovery_area # chmod 775 /mount_point/flash_recovery_area
oracleユーザーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
この項では、自動ストレージ管理で使用するディスクの構成方法について説明します。ディスクを構成する前に、必要なディスクの数と空きディスク領域の大きさを判断する必要があります。次の項では、各プラットフォームでの要件の確認およびディスクの構成方法について説明します。
|
注意: この項ではディスクについて説明していますが、サポートされているNASストレージ・デバイスのゼロ埋込みファイルを自動ストレージ管理ディスク・グループで使用することもできます。自動ストレージ管理ディスク・グループで使用するNASベースのファイルの作成および構成の詳細は、Oracle Databaseのインストレーション・ガイドを参照してください。 |
|
注意: サポートされている構成の最新情報は、次のURLにあるOracleMetaLink Webサイトの「Certify」ページを参照してください。
|
自動ストレージ管理を使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle Databaseファイルまたはリカバリ・ファイル(あるいはその両方)に自動ストレージ管理を使用するかどうかを決定します。
|
注意: データベース・ファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。1つのファイル・タイプにファイル・システムを、もう1つに自動ストレージ管理を使用することもできます。自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバリ・ファイルの記憶域に自動ストレージ管理を使用する必要があります。 |
インストール時に自動バックアップを有効にしている場合、フラッシュ・リカバリ領域に自動ストレージ管理ディスク・グループを指定して、リカバリ・ファイル用の記憶域メカニズムとして自動ストレージ管理を選択できます。インストール時に選択するデータベースの作成方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合(アドバンスト・データベース構成オプションを選択した場合など)、データ・ファイルおよびリカバリ・ファイルに同じ自動ストレージ管理ディスク・グループを使用するか、または各ファイル・タイプに別のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合は、データ・ファイルとリカバリ・ファイルに同じ自動ストレージ管理ディスク・グループを使用する必要があります。
自動ストレージ管理ディスク・グループに使用する自動ストレージ管理の冗長レベルを選択します。
自動ストレージ管理ディスク・グループに選択した冗長レベルによって、自動ストレージ管理でディスク・グループ内のファイルをミラー化する方法および必要となるディスク数とディスク領域は次のようになります。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
自動ストレージ管理は外部冗長ディスク・グループ内のデータをミラー化しないため、このタイプのディスク・グループのディスク・デバイスとしては、RAIDのみを使用するか、または同様にデバイス独自のデータ保護メカニズムを持つデバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、自動ストレージ管理はデフォルトで2方向のミラー化を使用し、パフォーマンスおよび信頼性を向上させます。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
ほとんどの使用環境では、標準冗長ディスク・グループを選択することをお薦めします。
高冗長
高冗長ディスク・グループでは、自動ストレージ管理はデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
データ・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
次の表を使用して、使用環境に必要なディスクの最小台数およびディスクの最小領域を決定します。
| 冗長レベル | ディスクの最小台数 | データベース・ファイル | リカバリ・ファイル | 合計 |
|---|---|---|---|---|
| 外部 | 1 | 1.15GB | 2.3GB | 3.45GB |
| 標準 | 2 | 2.3GB | 4.6GB | 6.9GB |
| 高 | 3 | 3.45GB | 6.9GB | 10.35GB |
Oracle RACインストールでは、自動ストレージ管理のメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、追加のディスク領域の要件を計算します(単位: MB)。
15 +(2×ディスクの台数)+(126×自動ストレージ管理インスタンスの数)
たとえば、高冗長ディスク・グループに3台のディスクを使用する4ノードのRAC環境では、525MBの追加ディスク領域が必要になります。
15 +(2×3)+(126×4) = 525
システム上ですでに自動ストレージ管理インスタンスが実行されている場合は、これらの記憶域要件を満たすために既存のディスク・グループを使用できます。インストール時、必要に応じて、既存のディスク・グループにディスクを追加できます。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
必要な場合は、自動ストレージ管理ディスク・グループのデバイスに障害グループを指定します。
|
注意: Database Configuration Assistantを対話型モードで実行するインストール方法を使用する場合(カスタム・インストール・タイプやアドバンスト・データベース構成オプションを選択する場合など)にのみ、この手順を実行します。他のインストール・タイプでは、障害グループを指定できません。 |
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
|
注意: カスタム障害グループを定義する場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
自動ストレージ管理ディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。自動ストレージ管理は、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、自動ストレージ管理ディスク・グループのデバイスとして指定できますが、これを使用することはお薦めしません。論理ボリューム・マネージャは、物理ディスク・アーキテクチャを隠すことができ、これによって自動ストレージ管理による物理デバイス間のI/Oの最適化が行われなくなります。
既存の自動ストレージ管理ディスク・グループにデータベース・ファイルまたはリカバリ・ファイルを格納する場合は、選択したインストール方法に応じて、次のいずれかを選択できます。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合(アドバンスト・データベース構成オプションを選択した場合など)、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
|
注意: 既存ディスク・グループを管理する自動ストレージ管理インスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
既存の自動ストレージ管理ディスク・グループが存在するかどうか、またはディスク・グループに十分なディスク領域があるかどうかを判断するために、Oracle Enterprise Manager Grid ControlまたはDatabase Controlを使用できます。また、次の手順も使用できます。
oratabファイルの内容を表示して、自動ストレージ管理インスタンスがシステムに組み込まれているかどうかを判断します。
# more /etc/oratab
自動ストレージ管理インスタンスがシステムに組み込まれている場合、oratabファイルには次のような行が含まれます。
+ASM2:oracle_home_path
この例では、+ASM2は自動ストレージ管理インスタンスのシステム識別子(SID)、oracle_home_pathは自動ストレージ管理インスタンスが組み込まれているOracleホーム・ディレクトリです。表記規則により、自動ストレージ管理インスタンスのSIDは、プラス(+)記号で始まります。
環境変数ORACLE_SIDおよびORACLE_HOMEに、使用する自動ストレージ管理インスタンスに対して適切な値を指定します。
SYSDBA権限を持つSYSユーザーとして自動ストレージ管理インスタンスに接続し、必要に応じてインスタンスを起動します。
# $ORACLE_HOME/bin/sqlplus "SYS/SYS_password as SYSDBA"
SQL> STARTUP
次のコマンドを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
SQL> SELECT NAME,TYPE,TOTAL_MB,FREE_MB FROM V$ASM_DISKGROUP;
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
|
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
HP-UXのASMに使用するディスクを構成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/ioscan -fun -C disk
Class I H/W Path Driver S/W State H/W Type Description
==========================================================================
disk 0 0/0/1/0.6.0 sdisk CLAIMED DEVICE HP DVD-ROM 6x/32x
/dev/rdsk/c0t6d0 /dev/rdsk/c0t6d0
disk 1 0/0/1/1.2.0 sdisk CLAIMED DEVICE SEAGATE ST39103LC
/dev/rdsk/c1t2d0 /dev/rdsk/c1t2d0
このコマンドによって、システムに取り付けられている各ディスクの情報が表示されます。これには、キャラクタRAWデバイス名(/dev/rdsk/)も含まれます。
|
注意: HP-UX 11i V.3では、アジャイル・ビューを使用して、キャラクタRAWデバイス(/dev/rdisk/diskxyz)を含む、マス・ストレージ・デバイスを確認することもできます。次に例を示します。
#>ioscan -funN -C disk
Class I H/W Path Driver S/W State H/W Type Description
===================================================================
disk 4 64000/0xfa00/0x1 esdisk CLAIMED DEVICE HP 73.4GST373454LC
/dev/disk/disk4 /dev/rdisk/disk4
disk 907 64000/0xfa00/0x2f esdisk CLAIMED DEVICE COMPAQ MSA1000 VOLUME
/dev/disk/disk907 /dev/rdisk/disk907
|
ioscanコマンドを実行しても、使用するデバイスのデバイス名情報が表示されない場合は、次のコマンドを入力して、すべての新しいデバイス用に特別なデバイス・ファイルをインストールします。
# /usr/sbin/insf -e
ディスク・グループに追加するディスクごとに、任意のノードで次のコマンドを入力して、そのディスクがLVMボリューム・グループにまだ属していないことを確認します。
# /sbin/pvdisplay /dev/dsk/cxtydz
このコマンドによってボリューム・グループの情報が表示された場合、そのディスクはボリューム・グループにすでに属しています。選択するディスクは、LVMボリューム・グループに属していてはいけません。
|
注意: 別のボリューム管理ソフトウェアを使用する場合(VERITAS Volume Managerなど)、ディスクが使用されていないことを確認する方法について、該当するマニュアルを参照してください。 |
各ノードで次のコマンドを入力し、ディスク・グループに追加する各ディスクのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rdsk/cxtydz # chmod 660 /dev/rdsk/cxtydz
|
注意: ASMでマルチパス・ディスク・ドライバを使用している場合は、そのディスクの正しい論理デバイス名に対してのみ権限を設定してください。ノード構成が異なる場合に、特定のデバイスのデバイス名が一部のノードで異なる場合があります。各ノードで正しいデバイス名を指定してください。 |
記憶域にRAWデバイスも使用する場合は、次の項の「RAWデバイスでのデータベース・ファイル用のディスクの構成」を参照してください。
次の項では、RAWデバイスでのOracle Clusterwareファイルの構成方法について説明します。
Oracle Database 11gリリース1(11.1)ソフトウェアおよびOracle RACをインストールする前に、データベースに十分なサイズのパーティションを作成し、将来の拡張に備えて、同じサイズのパーティションもいくつか残しておきます。たとえば、共有ディスク・アレイに空き領域がある場合、データベース全体に対して標準的なパーティション・サイズの上限を選択します。ほとんどのデータベースには、50MB、100MB、500MBおよび1GBが適切なパーティション・サイズです。また、サイズが非常に小さいパーティション(1MBなど)および非常に大きいパーティション(5GB以上など)を、それぞれいくつか予備として作成します。各パーティションの使用計画を基に、1つのディスク上に異なるサイズのパーティションを組み合せたり、各ディスクを同じサイズのパーティションに分割して、これら予備のパーティションの配置を決定します。
|
注意: 各インスタンスには独自のREDOログ・ファイルがありますが、制御ファイルおよびデータ・ファイルはクラスタ内のすべてのインスタンスで共有されることに注意してください。また、リカバリを実行可能にするには、各インスタンスのオンラインREDOログ・ファイルが他のすべてのインスタンスから読取り可能である必要があります。必要最小限のパーティションに加えて、予備のパーティションを構成する必要があります。これによって、表領域のデータ・ファイルが一杯になった場合に、ファイルを再配置または追加できます。 |
表5-3 に、データベース・ファイル用に構成する必要がある共有パーティションの数およびサイズを示します。
表5-3 HP-UXでデータベース・ファイル用に必要な共有デバイスまたは論理ボリュームの数
| 数 | パーティション・サイズ(MB) | 用途 |
|---|---|---|
|
1 |
500 |
|
|
1 |
300 +(インスタンスの数×250) |
|
|
インスタンスの数 |
500 |
|
|
1 |
250 |
|
|
1 |
160 |
|
|
1 |
120 |
|
|
2×インスタンスの数 |
120 |
|
|
2 |
110 |
|
|
1 |
5 |
|
|
1 |
5 |
|
注意: 自動UNDO管理を使用せずに手動でUNDO管理を行う場合は、UNDOTBSn共有記憶域デバイスのかわりに、共有記憶域デバイス・パーティションに500MB以上のサイズの単一のロールバック・セグメント(RBS)表領域を作成する必要があります。 |
次の項では、データベース・ファイル用のRAWパーティションの構成方法について説明します。
表5-4に、データベース・ファイル用に構成する必要があるRAWディスク・デバイスの数およびサイズを示します。
|
注意: 各ファイルでは、1台のディスク・デバイス全体を排他的に使用する必要があるため、可能な場合は、格納されるファイルのサイズ要件に近いサイズのディスク・デバイスを使用することをお薦めします。これらのファイル用に使用するディスクは、他の目的では使用できません。 |
表5-4 HP-UXでデータベース・ファイル用に必要なRAWディスク・デバイス
データベース・ファイル記憶域にRAWディスク・デバイスを使用する場合は、作成するデータベースの名前を選択します。
指定する名前の先頭は文字である必要があり、4文字以下にする必要があります。たとえば、orclなどです。
必要なディスク・デバイスを確認または構成します。
ディスク・デバイスは、すべてのクラスタ・ノードで共有されている必要があります。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/ioscan -fun -C disk
Class I H/W Path Driver S/W State H/W Type Description
==========================================================================
disk 0 0/0/1/0.6.0 sdisk CLAIMED DEVICE HP DVD-ROM 6x/32x
/dev/dsk/c0t6d0 /dev/rdsk/c0t6d0
disk 1 0/0/1/1.2.0 sdisk CLAIMED DEVICE SEAGATE ST39103LC
/dev/dsk/c1t2d0 /dev/rdsk/c1t2d0
このコマンドによって、システムに取り付けられている各ディスクの情報が表示されます。これには、キャラクタRAWデバイス名(/dev/rdsk/cxtydz)も含まれます。
ioscanコマンドを実行しても、使用するデバイスのデバイス名情報が表示されない場合は、次のコマンドを入力して、すべての新しいデバイス用に特別なデバイス・ファイルをインストールします。
# /usr/sbin/insf -e
使用するディスクごとに、任意のノードで次のコマンドを入力して、そのディスクがLVMボリューム・グループにまだ属していないことを確認します。
# /sbin/pvdisplay /dev/dsk/cxtydz
このコマンドによってボリューム・グループの情報が表示された場合、そのディスクはボリューム・グループにすでに属しています。選択するディスクは、LVMボリューム・グループに属していてはいけません。
|
注意: 別のボリューム管理ソフトウェアを使用する場合(VERITAS Volume Managerなど)、ディスクが使用されていないことを確認する方法について、該当するマニュアルを参照してください。 |
ioscanコマンドによって、いずれかのノードで同じデバイスに異なるデバイス名が表示される場合は、次の手順を実行します。
ディレクトリを/dev/rdskディレクトリに変更します。
次のコマンドを入力して、RAWディスク・デバイス名とそれに関連付けられたメジャーおよびマイナー番号を表示します。
# ls -la
このコマンドの出力結果は、各ディスク・デバイスごとに次のようになります。
crw-r--r-- 1 bin sys 188 0x032000 Nov 4 2003 c3t2d0
この例では、188はデバイスのメジャー番号で、0x32000はデバイスのマイナー番号です。
既存のデバイス・ファイルと同じメジャーおよびマイナー番号を指定して次のコマンドを入力し、使用するディスク用に新しいデバイス・ファイルを作成します。
|
注意: 前述の表に示した代替デバイス・ファイル名を使用することをお薦めします。 |
# mknod ora_ocr_raw_256m c 188 0x032000
各ノードで前述の手順を繰り返します。各ノードでは、新しいデバイス・ファイルに正しいメジャーおよびマイナー番号を指定します。
各ノードで次のコマンドを入力し、使用する各ディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
|
注意: 自動ストレージ管理でマルチパス・ディスク・ドライバを使用している場合は、そのディスクの正しい論理デバイス名に対してのみ権限を設定してください。デバイスの代替デバイス・ファイルを作成した場合は、そのデバイス・ファイルに権限を設定します。 |
OCRの場合:
# chown root:oinstall /dev/rdsk/cxtydz # chmod 640 /dev/rdsk/cxtydz
Oracle Clusterware投票ディスクまたはデータベース・ファイルの場合:
# chown oracle:dba /dev/rdsk/cxtydz # chmod 660 /dev/rdsk/cxtydz
データベース・ファイルにRAWディスク・デバイスを使用する場合は、次の手順を実行して、Database Configuration AssistantのRAWデバイス・マッピング・ファイルを作成します。
|
注意: データベース・ファイルにRAWデバイスを使用している場合にのみ、この手順を実行する必要があります。Database Configuration AssistantのRAWデバイス・マッピング・ファイルを使用すると、Database Configuration Assistantによって各データベース・ファイルの適切なRAWディスク・デバイスを特定できます。Database Configuration AssistantのRAWデバイス・マッピング・ファイルには、Oracle Clusterwareファイル用のRAWデバイスは指定しません。 |
環境変数ORACLE_BASEに、以前に選択または作成したOracleベース・ディレクトリを指定します。
Bourne、BashまたはKornシェル:
$ ORACLE_BASE=/u01/app/oracle ; export ORACLE_BASE
Cシェル:
% setenv ORACLE_BASE /u01/app/oracle
Oracleベース・ディレクトリにデータベース・ファイルのサブディレクトリを作成し、そのサブディレクトリに適切な所有者、グループおよび権限を設定します。
# mkdir -p $ORACLE_BASE/oradata/dbname
# chown -R oracle:oinstall $ORACLE_BASE/oradata
# chmod -R 775 $ORACLE_BASE/oradata
この例では、dbnameは、以前選択したデータベースの名前です。
ディレクトリを$ORACLE_BASE/oradata/dbnameディレクトリに変更します。
任意のテキスト・エディタを使用して、各データベース・ファイルに関連付けられるディスク・デバイス・ファイル名を示す、次のようなテキスト・ファイルを作成します。
このファイルには、dbname_raw.confのようなファイル名を使用することをお薦めします。
|
注意: 次に示すのは、2インスタンスのRACクラスタに対するマッピング・ファイルの例です。一部のデバイスでは、代替ディスク・デバイス・ファイル名が使用されます。指定したデバイス・ファイル名は、すべてのノードで同じディスク・デバイスを示す必要があります。 |
system=/dev/rdsk/c2t1d1 sysaux=/dev/rdsk/c2t1d2 example=/dev/rdsk/c2t1d3 users=/dev/rdsk/c2t1d4 temp=/dev/rdsk/c2t1d5 undotbs1=/dev/rdsk/c2t1d6 undotbs2=/dev/rdsk/c2t1d7 redo1_1=/dev/rdsk/c2t1d8 redo1_2=/dev/rdsk/c2t1d9 redo2_1=/dev/rdsk/c2t1d10 redo2_2=/dev/rdsk/c2t1d11 control1=/dev/rdsk/c2t1d12 control2=/dev/rdsk/c2t1d13 spfile=/dev/rdsk/dbname_spfile_raw_5m pwdfile=/dev/rdsk/dbname_pwdfile_raw_5m
この例では、dbnameは、データベースの名前です。
次のガイドラインに従って、ファイルを作成および編集します。
ファイルの各行は、次の形式である必要があります。
database_object_identifier=device_file_name
前述の表に示した代替デバイス・ファイル名には、このマッピング・ファイルに使用する必要があるデータベース・オブジェクト識別子が含まれます。たとえば、次の代替ディスク・デバイス・ファイル名では、redo1_1がデータベース・オブジェクト識別子です。
rac_redo1_1_raw_120m
RACデータベースの場合、ファイルは、各インスタンスに対して1つの自動UNDO表領域データ・ファイル(undotbsn)と2つのREDOログ・ファイル(redon_1、redon_2)を指定する必要があります。
2つ以上の制御ファイル(control1、control2)を指定します。
自動UNDO管理のかわりに手動UNDO管理を使用するには、自動UNDO管理表領域のかわりに単一のRBS表領域データ・ファイル(rbs)を指定します。
ファイルを保存して、指定したファイル名を書き留めます。
この章の後半でoracleユーザーの環境を構成する際に、このファイルへのフル・パスが指定されるように環境変数DBCA_RAW_CONFIGを設定します。
Oracle Clusterwareをインストールする際に、OCRおよびOracle Clusterware投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。
/dev/rdsk/cxtydz
|
注意: データベース・ファイルにRAW論理ボリュームを使用している場合にのみ、この手順を実行する必要があります。 |
Database Configuration Assistantで各データベース・ファイルに適切なRAWデバイスを識別できるようにするには、次の手順に従って、RAWデバイス・マッピング・ファイルを作成する必要があります。
環境変数ORACLE_BASEに、以前に選択または作成したOracleベース・ディレクトリを指定します。
Bourne、BashまたはKornシェル:
$ ORACLE_BASE=/u01/app/oracle ; export ORACLE_BASE
Cシェル:
% setenv ORACLE_BASE /u01/app/oracle
Oracleベース・ディレクトリにデータベース・ファイルのサブディレクトリを作成し、そのサブディレクトリに適切な所有者、グループおよび権限を設定します。
# mkdir -p $ORACLE_BASE/oradata/dbname
# chown -R oracle:oinstall $ORACLE_BASE/oradata
# chmod -R 775 $ORACLE_BASE/oradata
この例では、dbnameは、以前選択したデータベースの名前です。
ディレクトリを$ORACLE_BASE/oradata/dbnameディレクトリに変更します。
次のコマンドを入力して、RAWデバイス・マッピング・ファイルの作成に使用可能なテキスト・ファイルを作成します。
# find /dev/vg_name -user oracle -name 'r*' -print > dbname_raw.conf
任意のテキスト・エディタでdbname_raw.confファイルを編集して、次のようなファイルを作成します。
|
注意: 次に示すのは、2インスタンスのRACクラスタに対するマッピング・ファイルの例です。 |
system=/dev/vg_name/rdbname_system_raw_500m sysaux=/dev/vg_name/rdbname_sysaux_raw_800m example=/dev/vg_name/rdbname_example_raw_160m users=/dev/vg_name/rdbname_users_raw_120m temp=/dev/vg_name/rdbname_temp_raw_250m undotbs1=/dev/vg_name/rdbname_undotbs1_raw_500m undotbs2=/dev/vg_name/rdbname_undotbs2_raw_500m redo1_1=/dev/vg_name/rdbname_redo1_1_raw_120m redo1_2=/dev/vg_name/rdbname_redo1_2_raw_120m redo2_1=/dev/vg_name/rdbname_redo2_1_raw_120m redo2_2=/dev/vg_name/rdbname_redo2_2_raw_120m control1=/dev/vg_name/rdbname_control1_raw_110m control2=/dev/vg_name/rdbname_control2_raw_110m spfile=/dev/vg_name/rdbname_spfile_raw_5m pwdfile=/dev/vg_name/rdbname_pwdfile_raw_5m
この例の意味は、次のとおりです。
vg_nameは、ボリューム・グループの名前です。
dbnameは、データベースの名前です。
次のガイドラインに従って、ファイルを作成および編集します。
ファイルの各行は、次の形式である必要があります。
database_object_identifier=logical_volume
このマニュアルに示す論理ボリューム名には、このマッピング・ファイルに使用する必要があるデータベース・オブジェクト識別子が含まれます。たとえば、次の論理ボリューム名では、redo1_1がデータベース・オブジェクト識別子です。
/dev/oracle_vg/rrac_redo1_1_raw_120m
ファイルは、各インスタンスに対して1つの自動UNDO表領域データ・ファイル(undotbsn)と2つのREDOログ・ファイル(redon_1、redon_2)を指定する必要があります。
2つ以上の制御ファイル(control1、control2)を指定します。
自動UNDO管理のかわりに手動UNDO管理を使用するには、自動UNDO管理表領域のかわりに単一のRBS表領域データ・ファイル(rbs)を指定します。
ファイルを保存して、指定したファイル名を書き留めます。
この章の後半でoracleユーザーの環境を構成する際に、このファイルへのフル・パスが指定されるように環境変数DBCA_RAW_CONFIGを設定します。
oracleユーザーで次のコマンド構文を使用して、ハードウェア、オペレーティング・システムおよび記憶域の設定を確認するためのクラスタ検証ユーティリティ(CVU)のステージ検証を開始します。
/mountpoint/runcluvfy.sh stage –post hwos –n node_list [-verbose]
前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。たとえば、node1およびnode2で構成され、マウント・ポイントが/mnt/dvdrom/の2ノードのクラスタのハードウェアおよびオペレーティング・システムを、検証結果のみを出力するオプションを指定して検証するには、次のコマンドを入力します。
$ /mnt/dvdrom/runcluvfy.sh stage –post hwos –n node1,node2
-verboseオプションは、クラスタ検証ユーティリティによるシステム検証の進捗状況および検証結果の詳細を表示する場合に選択します。