プライマリ・コンテンツに移動
Oracle® Grid Infrastructureインストレーション・ガイド
12cリリース1 (12.1) for IBM AIX on POWER Systems (64-Bit)
E49837-10
  目次へ移動
目次
索引へ移動
索引

前
 
次
 

6 Oracle Grid InfrastructureおよびOracle RACの記憶域の構成

この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management (Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。

この章の内容は次のとおりです。

6.1 Oracle Grid Infrastructureの記憶域オプションの確認

この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。内容は次のとおりです。


関連項目:

動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
https://support.oracle.com

6.1.1 サポートされている記憶域オプション

次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。

表6-1 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション

記憶域オプション OCRおよび投票ディスク Oracle Clusterwareバイナリ Oracle RACバイナリ Oracle Databaseファイル Oracleリカバリ・ファイル

Oracle Automatic Storage Management

注意: ループバック・デバイスは、Oracle ASMでは使用できません。

不可

不可

Oracle Automatic Storage Management Cluster File System (Oracle ACFS)

不可

不可

Oracle Database 12cリリース1 (12.1)以降の場合は可

Oracle Database 12cリリース1 (12.1)以降の場合は可

General Parallel File System(GPFS)

  • 注意: GPFSにASMファイルを配置することはできません。

  • HACMPが使用されている場合、投票ディスクにはGPFSを使用しないことをお薦めします。

ローカル・ファイル・システム

不可

不可

不可

動作保証されているNASファイラ上のNFSファイル・システム

注意: 動作保証されているNASデバイスが必要です。HACMPが使用されている場合、投票ディスクにはNFSを使用しないことをお薦めします。

共有ディスク・パーティション(RAWディスク)(HACMPによって管理されるRAW論理ボリュームを含む)

OUIおよびASMCAでは非サポートだが、ソフトウェアでサポート。インストール後に追加または削除できます。

不可

不可

OUIおよびASMCAでは非サポートだが、ソフトウェアでサポート。インストール後に追加または削除できます。

不可


次のガイドラインに従って、記憶域オプションを選択します。

  • 選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。

  • Oracle Clusterwareファイルの格納には、Oracle ASMを使用できません。

  • RAWおよびブロック・デバイスの直接の使用はサポートされていません。


    関連項目:

    既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。

  • 外部ファイルを冗長化できる記憶域オプションを選択できない場合は、冗長性を確保するために3つ以上の投票ディスクの場所および2つ以上のOracle Cluster Registryの場所を構成する必要があります。

6.1.2 Oracle ACFSおよびOracle ADVM

この項では、Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)およびOracle Automatic Storage Management動的ボリューム・マネージャ(Oracle ADVM)について説明します。内容は次のとおりです。

6.1.2.1 Oracle ACFSおよびOracle ADVMについて

Oracle ACFSによるOracle ASMテクノロジの拡張によって、単一インスタンスおよびクラスタ構成のどちらでも、すべてのアプリケーション・データがサポートされます。Oracle ADVMは、ボリューム管理サービスと、クライアントとの標準ディスク・デバイス・ドライバ・インタフェースを提供します。Oracle Automatic Storage Managementクラスタ・ファイルシステムは、Oracle Automatic Storage Management動的ボリューム・マネージャ・インタフェースを介してOracle ASMと通信します。

6.1.2.2 Oracle ACFSの制限事項およびガイドライン

Oracle ACFSの次の点に注意してください。

  • Oracle ACFSおよびOracle ADVMは、IBM AIX Workload Partitions (WPARs)ではサポートされていません。

  • Oracle Automatic Storage Management Cluster File System (Oracle ACFS)は、汎用のファイル・システムです。このシステムにはOracle DatabaseバイナリおよびOracle Databaseファイルは配置できますが、Oracle ACFSにはOracle Clusterwareファイルを配置できません。

    ポリシー管理型Oracle Flex Clusterデータベースの場合、Oracle ACFSはハブ・ノードで実行できますが、リーフ・ノードでは実行できない点に注意してください。このため、Oracle RACバイナリをリーフ・ノードのOracle ACFSに配置することができません。

  • Oracle Flex Clusterの場合、リーフ・ノードはハブ・ノードからACFSにOracleホームをマウントすることはできず、一部のノードはNFSを使用して同じOracleホームにアクセスする一方で、その他のノードは同じOracleホームのパスに対してACFSを使用するということはサポートされていません。

  • Oracle Restartは、rootベースのOracle Clusterwareリソースをサポートしません。このため、Oracle Restart構成でOracle ACFSを実行する場合は、次の制限が適用されます。

    • Oracle ACFSドライバは手動でロードおよびアンロードする必要があります。

    • Oracle ASMインスタンスの起動後、Oracle ACFSファイル・システムを手動でマウントおよびマウント解除する必要があります。

    • Oracle Restartでは、ファイル・システムにOracle Grid Infrastructureリソースを定義できません。このため、ACFSファイル・システムをデータベース・ホームまたはデータ・ファイルには使用できません。

    • Oracle ACFSデータベース・ホーム・ファイル・システムはOracle ACFSマウント・レジストリに配置できません。Oracle Grid Infrastructure 12cリリース1において、マウント・レジストリは完全に削除されました。

  • Oracle ClusterwareのバイナリおよびファイルをOracle ACFSに配置することはできません。

  • クラスタ用のOracle Grid Infrastructureでは、Oracleデータ・ファイルをOracle ACFSファイル・システムに作成することは、Oracle Database 12cリリース1からサポートされていません。

  • Oracle Databaseのバイナリおよび管理ファイル(トレース・ファイルなど)をOracle ACFSに配置できます。

  • Oracle ACFSでは、Oracle Databaseデータ・ファイル、表領域ファイル、制御ファイルおよびREDOログによるレプリケーションまたは暗号化は、サポートされていません。


注意:

AIXでは、Oracle ACFSに次のインストール要件があります。
  • AIXのバージョンは、AIX 7.1またはPPC64のAIX 6.1に対してはAIX 6.1 TL4 SP2以上である必要があります。Oracle Grid Infrastructure for a Cluster 11gリリース2 (11.2.0.3)から、Oracle ACFSは、AIX 7.1のすべてのテクニカル・レベルでサポートされます。

  • システムはRACモードで実行している必要があります(デフォルト)。

  • Oracle Grid Infrastructureのインストール所有者はローカル・ユーザーである必要があります。


6.1.3 Oracle Grid InfrastructureおよびOracle RACの記憶域についての一般的な考慮事項

すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clustersデータベース(Oracle RAC)に使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にするには、リカバリ・ファイル(高速リカバリ領域)に使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。

6.1.3.1 Oracle Clusterwareの記憶域についての一般的な考慮事項

Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が格納されます。投票ディスクとOCRファイルは、ASMディスク・グループ、クラスタ・ファイル・システム、共有ネットワーク・ファイル・システムのいずれかに配置できます。記憶域は共有される必要があります。構成されている投票ディスクの大半(過半数)が利用できないノードは再起動されます。

6.1.3.2 Oracle RACの記憶域についての一般的な考慮事項

Standard EditionおよびStandard Edition 2 (SE2)のOracle RACインストールでは、データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。すべてのインストールについて、2つの以上のOracle ASMディスク・グループを作成することをお薦めします(Oracle Databaseデータ・ファイルおよびリカバリ・ファイル用にそれぞれ1つずつ)。Oracle Databaseディスク・グループおよびリカバリ・ファイル・ディスク・グループは別の障害グループに配置することをお薦めします。

Oracle ASMを使用しない場合は、データ・ファイルと高速リカバリ領域を、異なる場所にあるOracleホーム以外の共有記憶域に配置し、ハードウェアの障害による可用性の低下を防ぐことをお薦めします。


関連項目:

  • 高速リカバリ領域の使用の詳細は、『Oracle Database 2日でデータベース管理者』を参照してください。

  • 障害グループ、および高可用性とリカバリのベスト・プラクティスの詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。


サポートされている記憶域のオプションには、次の追加のガイドラインを考慮してください。

  • 選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。

  • Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。

    • クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 12cリリース1(12.1)がインストールされている。

    • クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。

  • 外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。

6.1.4 ストレージにOracle ASMディスク・グループを使用するときのガイドライン

Oracle Grid Infrastructureのインストール時に、ディスク・グループを1つ作成できます。Oracle Grid Infrastructureのインストール後は、ASMCA、SQL*PlusまたはASMCMDを使用して追加のディスク・グループを作成できます。Oracle Database 11gリリース2(11.2)以上では、Oracle Database Configuration Assistant(DBCA)にOracle ASMのディスク・グループを作成する機能がないことに注意してください。

Oracle Grid Infrastructureのインストール後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ディスク・ファイルに同じディスク・グループを使用することも、別のディスク・グループを使用することもできます。Oracle RACをインストールする前、またはデータベースを作成する前に複数のディスク・グループを作成すると、次のいずれかを実行できます。

  • Oracle Clusterwareファイルと同じディスク・グループにデータ・ファイルを置きます。

  • データ・ファイルとリカバリ・ファイルに同じOracle ASMディスク・グループを使用します。

  • ファイル・タイプごとに別のディスク・グループを使用します。

ストレージとして1つのディスク・グループを作成した場合は、OCRおよび投票ディスク・ファイル、データベース・ファイル、リカバリ・ファイルはそのディスク・グループに格納されます。複数のディスク・グループを作成した場合は、ファイルを別のディスク・グループに格納することもできます。


注意:

既存ディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行する必要があります。


関連項目:

ディスク・グループの作成については、『Oracle Automatic Storage Management管理者ガイド』を参照してください。


6.1.5 Oracle Grid InfrastructureおよびOracle RACでの論理ボリューム・マネージャの使用

Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。いくつかのサード・パーティのボリューム・マネージャはクラスタ対応ではないため、サポートされていません。使用するボリューム・マネージャがサポートされているかどうかを確認するには、My Oracle Supportの「動作保証」をクリックし、そのボリューム・マネージャがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。

https://support.oracle.com

6.1.6 ディスクの記憶域オプションを選択した後の作業

ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。

6.2 共有ファイル・システムの記憶域の構成について

サーバーで検出される共有記憶域の場所に基づいて、インストーラはOracle Cluster Registry (OCR)およびOracle Clusterware投票ディスクのデフォルトの場所を提案します。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。

6.2.1 Oracle Grid Infrastructureで共有ファイル・システムを使用するためのガイドライン

Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。

  • NFSファイル・システムを使用するには、サポートされているNASデバイス上にある必要があります。次のURLでMy Oracle Supportにログインし、「動作保証」をクリックして、サポートされているNASデバイスの最新情報を調べます。

    https://support.oracle.com/

  • Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置する場合は、次のいずれかで共有ファイル・システムを構成することをお薦めします。

    • ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。

    • 2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 12c リリース1 (12.1)の機能を使用してOCRに冗長性を提供している。

  • データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。

    • ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。

    • ファイル・システムは、2つ以上の独立したファイル・システムで構成されています。一方のファイル・システムではデータベース・ファイル、もう一方のファイル・システムではリカバリ・ファイルが使用されます。

  • インストールを実行するユーザー・アカウント(oracleまたはgrid)には、指定したパスにファイルを作成するための書込み権限が必要です。


注意:

SRVM構成リポジトリに使用したRAWデバイスまたは共有ファイルをOCRに使用しているOracle9iリリース2からのアップグレードは、サポートされていません。

Oracle Clusterwareをアップグレードする場合、既存のクラスタでOCRパーティションに100MB、投票ディスク・パーティションに20MBが使用されている場合、OCRパーティションを400MB以上に拡張する必要があり、投票ディスク・パーティションは300MB以上に拡張した方がよいでしょう。パーティションは使用せず、OCRおよび投票ディスクをQUORUMディスク・グループとしてマークされたディスク・グループに配置することをお薦めします。

すべてのストレージ製品は、サーバー・ベンダーとストレージ・ベンダーの両方でサポートされている必要があります。


6.2.2 Oracle Grid Infrastructure共有ファイル・システムのボリューム・サイズ要件

表6-2表6-3を使用して、共有ファイル・システムの最小サイズを決定します。

表6-2 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件

格納されるファイル・タイプ ボリュームの数 ボリュームのサイズ

外部冗長で作成された投票ディスク

1

投票ディスク・ボリュームごとに300MB以上

外部冗長で作成され、グリッド・インフラストラクチャ管理リポジトリを持つOracle Cluster Registry (OCR)

1

グリッド・インフラストラクチャ管理リポジトリを含むOCRボリュームに5.9GB以上(5.2GB + 300MBの投票ファイル + 400MBのOCR)と、4ノードより大きいクラスタのノードごとに500MB。たとえば、6ノードのクラスタの割当ては6.9GBになります。

Oracle Clusterwareファイル(OCRおよび投票ディスク)およびOracleソフトウェアが冗長性を提供するグリッド・インフラストラクチャ管理リポジトリ

3

OCRボリュームごとに400MB以上

投票ディスク・ボリュームごとに300MB以上

2 x 5.2GB (通常の冗長性):

ノード数が5以上の場合、追加のノードごとに500MBを加える。

たとえば、6つのノードのクラスタのサイズは14.1GBになる。

  • グリッド・インフラストラクチャ管理リポジトリ 2 x (5.2GB+ 500MB + 500MB) = 12.4GB

  • 2つのOCR (2 x 400 MB) = 800 MB

  • 3つの投票ファイル(3 x 300MB) = 900 MB

= 14.1GB


表6-3 Oracle RAC共有ファイル・システムのボリューム・サイズ要件

格納されるファイル・タイプ ボリュームの数 ボリュームのサイズ

Oracle Databaseファイル

1

ボリュームごとに1.5GB以上

リカバリ・ファイル

注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。

1

ボリュームごとに2GB以上


表6-2および表6-3で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。投票ディスクおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で6.9GB以上の利用可能な記憶域が必要です。


注意:

fdiskでデバイス・サイズ(+400Mなど)を指定し、共有パーティション上にパーティションを作成する際、実際に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合があります。これは、現在のfdiskにおける制限事項が原因です。Oracle ASMで使用するために割り当てたディスク全体をパーティション化することをお薦めします。

6.2.3 Oracle Clusterwareファイル用のクラスタ・ファイル・システムの使用の確認

新規インストールの場合は、Oracle Automatic Storage Management (Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めします。

クラスタ・ファイル・システムを使用してIBM POWERにインストールする場合は、IBM General Parallel File System (GPFS)を使用する必要があります。

6.2.4 Direct NFSクライアントおよびデータ・ファイルの記憶域について

カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。

6.2.4.1 Direct NFSクライアント・ストレージについて

Oracle Databaseでは、オペレーティング・システム・カーネルのNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントというクライアントを使用して、直接NFSサーバーにアクセスするようOracle Databaseを構成できます。Direct NFSクライアントでは、NFSサーバーへのアクセスにNFSv3、NFSv4およびNFSv4.1プロトコル(パラレルNFS拡張を除く)がサポートされています。

Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでそれ独自のNFSクライアントが使用されます。

Direct NFSクライアントでは、NFSサーバーに対して最大4つのネットワーク・パスがサポートされます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。

一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。

ポート範囲を制限するNFSサーバーの場合、rootでNFSサーバーに接続するのではなく、insecureオプションを使用してクライアントを有効化できます。または、第6.3.10項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。


注意:

Oracle RACでサポートされているNFSサーバーを使用してください。サポート情報は、次のURLを参照してください。

https://support.oracle.com


6.2.4.2 Direct NFSクライアントの構成について

Direct NFSクライアントでは、構成ファイル$ORACLE_HOME/dbs/oranfstab、またはオペレーティング・システムのマウント・タブ・ファイル/etc/mtabを使用して、どのマウント・ポイントが使用可能であるかを特定します。oranfstabが存在しない場合は、デフォルトで、/etc/mtabにあるエントリにDirect NFSクライアント・サーバーがマウントします。これ以上の構成は必要ありません。oranfstabを使用すると、Direct NFSクライアントを使用する追加のOracle Database操作を具体的に指定できます。たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。

Direct NFSクライアントでは、NFSサーバーに対して最大4つのネットワーク・パスがサポートされます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。

6.2.4.3 Direct NFSクライアントでのoranfstabファイルの使用

Direct NFSクライアントを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。oranfstabファイルは、/etcまたは$ORACLE_HOME/dbsのいずれかに追加できます。

共有Oracleホームでは、oranfstabファイルが$ORACLE_HOME/dbsに格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstabファイルが使用されます。共有されていないOracle RACインストールでは、oranfstabをすべてのノードにコピーする必要があります。

oranfstabファイルが/etcに格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstabファイルが/etcに格納されている場合、/etc/fstabファイルの場合と同様に、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。

マウント・ポイントがDirect NFSクライアントを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。オペレーティング・システムNFSの構成およびマウントを実行する方法については、そのベンダーのドキュメントを参照してください。


注意:

Direct NFSクライアントは、NFSサーバーの書込みサイズ値(wtmax)が32768未満の場合は機能しません。

6.2.4.4 Direct NFSクライアントを使用したNFSストレージ・デバイスのマウントについて

Direct NFSクライアントでは、/etc/mtabの構成に基づいてNFSストレージ・デバイスに対するマウント・ポイントの設定を判断します(これは、/etc/fstabファイルを構成することによって変更できます)。

Direct NFSクライアントでは、次の順序でマウント・エントリが検索されます。

  1. $ORACLE_HOME/dbs/oranfstab

  2. /etc/oranfstab

  3. /etc/mtab

Direct NFSクライアントでは、最初に検出されたエントリがマウント・ポイントとして使用されます。

Oracle Databaseでは、Direct NFSクライアントを介して提供されている場合でも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。


注意:

インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。

Oracle Databaseでoranfstabを使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSクライアントでは、情報メッセージを記録し、動作しません。

Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・オプションは、第6.3.3項「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSクライアントをNFSサーバーに接続することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。

第6.1.1項「サポートされている記憶域オプション」に、Direct NFSクライアントでサポートされているファイル・タイプを示します。

Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。


関連項目:

Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

6.2.5 データ・ファイル用のNFSの使用の確認

ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。

インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。

OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。

そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。

6.2.6 HACMP Multinode Disk Heartbeat(MNDHB)の構成

この項の内容は次のとおりです。


関連項目:

HACMPのデプロイメントおよび動作保証についての追加情報は、My Oracle Supportを参照してください。

6.2.6.1 Oracle ClusterwareでHACMPを使用するための要件の概要

Oracle Clusterwareの投票ディスクごとに、1つのMulti-node Disk Heartbeat(MNDHB)ネットワークを定義する必要があります。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。また、拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成する必要があります。

クラスタができるだけ分断されないように、複数のIPネットワークと1つ以上の非IPネットワークを使用してHACMPをデプロイすることをIBMは薦めています。非IPネットワークは、RS232またはディスク・ハートビートを使用して実装できます。データベースの記憶域にOracle RACおよびHACMP拡張コンカレント・リソース(拡張されたコンカレント論理ボリューム)を使用するシステムの場合は、MNDHBネットワークを構成する必要があります。

Oracle Clusterwareをインストールする前に、HACMPをインストールおよび構成し、稼働させる必要があります。Oracle RAC構成では、Oracle RACネットワーク・インタフェース(パブリック、VIPまたはプライベート)上のIPフェイルオーバーにHACMPを使用しないでください。Oracle RACのVIPフェイルオーバーは、Oracle Clusterwareによって管理されるため、これらのネットワーク・インタフェースは、HACMP IPフェイルオーバーを使用する構成にはしないでください。Oracle RACネットワーク・インタフェースは、個々のノードとOracle RACインスタンスに割り当てられます。HACMPが、異なるインタフェースでIPアドレスを再構成したり、異なるノードでアドレスをフェイルオーバーすると、Oracle Clusterwareで問題が発生する場合があります。Oracle RACノード上のIPアドレスのフェイルオーバーにHACMPを使用できるのは、Oracle RACがこれらのアドレスを使用しない場合のみです。

6.2.6.2 Oracle Clusterwareに対するHACMPおよびMDNDHBのデプロイ

次の作業を完了します。イタリック体の部分は、ご使用のシステムにあわせて適切な応答に読み換えてください。または、示された操作を実行し、必要に応じて適切な応答を入力してください。

  1. HACMPを起動します。

  2. 次のコマンドを入力して、HACMPのclcomdESデーモンが実行中であることを確認します。

    # lssrc -s clcomdES
    

    デーモンが実行されていない場合は、次のコマンドを使用して起動します。

    # startsrc –s clcomdES
    
  3. ご使用のHACMPとAIXのバージョンが、第3.6項「IBM AIX on POWER Systems (64-Bit)のオペレーティング・システム要件」に示されているシステム要件を満たしていることを確認します。

  4. HACMPクラスタを作成し、Oracle Clusterwareノードを追加します。次に例を示します。

    # smitty cm_add_change_show_an_hacmp_cluster.dialog
    * Cluster Name [mycluster] 
    
  5. 各Oracle Clusterwareノードに、HACMPクラスタ・ノードを作成します。次に例を示します。

    # smitty cm_add_a_node_to_the_hacmp_cluster_dialog 
    * Node Name [mycluster_node1]
    Communication Path to Node [] 
    
  6. HACMPイーサネット・ハートビート・ネットワークを作成します。HACMP構成には、ネットワーク定義が必要です。ネットワークでIPアドレスが引き継がれるように「No」を選択します。これらのネットワークはOracle Clusterwareによって使用されるためです。

    2つ以上のネットワーク定義を作成します。1つは、Oracleのパブリック・インタフェース用、もう1つはOracleのプライベート(クラスタ・インターコネクト)・ネットワーク用です。必要に応じて、さらにイーサネット・ハートビート・ネットワークを追加できます。

    次に例を示します。

    # smitty cm_add_a_network_to_the_hacmp_cluster_select 
    - select ether network 
    * Network Name [my_network_name] 
    * Network Type ether 
    * Netmask [my.network.netmask.here] 
    * Enable IP Address Takeover via IP Aliases [No] 
    IP Address Offset for Heart beating over IP Aliases [] 
    
  7. 前述の手順で追加したネットワークごとに、そのネットワークに関連付けられた各Oracle ClusterwareノードのすべてのIP名(各Oracle Clusterwareノードのパブリック、プライベートおよびVIP名)を定義します。次に例を示します。

    # smitty cm_add_communication_interfaces_devices.select 
    - select: Add Pre-defined Communication Interfaces and Devices / Communication Interfaces / desired network 
    * IP Label/Address [node_ip_address] 
    * Network Type ether 
    * Network Name some_network_name 
    * Node Name [my_node_name] 
    Network Interface [] 
    
  8. 拡張コンカレント・ボリューム・グループのリソースに対して、次のオプションを使用してHACMPリソース・グループを作成します。

    # smitty config_resource_group.dialog.custom 
    * Resource Group Name [my_resource_group_name] 
    * Participating Nodes (Default Node Priority) [mynode1,mynode2,mynode3] 
    Startup Policy Online On All Available Nodes 
    Fallover Policy Bring Offline (On Error Node Only) 
    Fallback Policy Never Fallback 
    
  9. コマンド(smitty mkvg)またはコマンドラインを使用して、AIXの拡張コンカレント・ボリューム・グループ(Big VGまたはScalable VG)を作成します。ボリューム・グループには、各投票ディスク用に1つ以上のハード・ディスクが含まれている必要があります。3つ以上の投票ディスクを構成する必要があります。

    次の例のdefaultは、デフォルトの応答をそのまま使用することを示しています。

    # smitty _mksvg 
    VOLUME GROUP name [my_vg_name] PP SIZE in MB 
    * PHYSICAL VOLUME names [mydisk1,mydisk2,mydisk3] 
    Force the creation of a volume group? no 
    Activate volume group AUTOMATICALLY no at system restart? 
    Volume Group MAJOR NUMBER [] 
    Create VG Concurrent Capable? enhanced concurrent 
    Max PPs per VG in kilobytes default
    Max Logical Volumes default
    
  10. 「Change/Show Resources for a Resource Group (standard)」で、前述の手順で追加したリソース・グループに対するコンカレント・ボリューム・グループを追加します。

    次に例を示します。

    # smitty cm_change_show_resources_std_resource_group_menu_dmn.select 
    - select_resource_group_from_step_6
    Resource Group Name shared_storage 
    Participating Nodes (Default Node Priority) mynode1,mynode2,mynode3
    Startup Policy Online On All Available Nodes 
    Fallover Policy Bring Offline (On Error Node Only) 
    Fallback Policy Never Fallback 
    Concurrent Volume Groups [enter_VG_from_step_7]
    Use forced varyon of volume groups, if necessary false 
    Application Servers [] 
    
  11. 次のコマンドを使用して、Oracle Clusterwareの投票ディスクごとに1つのMNDHBネットワークが定義されていることを確認します。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。MNDHBネットワークと投票ディスクは、HACMPが管理する拡張コンカレント論理ボリュームの共有論理ボリュームに、拡張コンカレント・リソースとして存在します。投票ディスクの論理ボリューム(LV)を配置するために手順6で作成したボリューム・グループにあるハード・ディスクごとにMNDHB論理ボリュームを作成します。

    # smitty cl_add_mndhb_lv 
    - select_resource_group_defined_in_step_6
    * Physical Volume name enter F4, then select a hard disk
    Logical Volume Name [] 
    Logical Volume Label [] 
    Volume Group name ccvg 
    Resource Group Name shared_storage 
    Network Name [n]
    

    注意:

    Oracle Clusterwareの投票ディスクに使用する論理ボリュームを定義する際は、同じディスクに定義する必要があります(各ディスクに1つ)。このMNDHB論理ボリュームの手順と同様です。

  12. 拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成します。次に例を示します。

    # smitty cl_set_mndhb_response 
    - select_the_VG_created_in_step_7 
    On loss of access Halt the node 
    Optional notification method [] 
    Volume Group ccvg 
    
  13. HACMP構成を確認し、同期させます。次に例を示します。

    # smitty cm_initialization_and_standard_config_menu_dmn 
    - select "Verify and Synchronize HACMP Configuration" 
    

    「Would you like to import shared VG: ccvg, in resource group my_resource_group onto node: mynode to node: racha702 [Yes / No]:」というプロンプトが表示されたら「Yes」と入力します。

  14. /usr/es/sbin/cluster/etc/rhostsファイルにHACMPクラスタ・ノードのIP名を追加します。

6.2.6.3 既存のOracle ClusterwareおよびHACMPインストールのアップグレード

次の手順を実行します。

  1. すべてのデータベースをバックアップした後、Oracle Cluster Registry(OCR)をバックアップします。

  2. すべてのノードですべてのOracle RACデータベース、すべてのノード・アプリケーションおよびOracle Clusterwareを停止します。

  3. 次のコマンドを入力し、ノードを再起動したときにOracle Clusterwareを無効にします。

    # crsctl disable crs
    
  4. すべてのノードでHACMPを停止します。

  5. HACMP APAR IZ01809をインストールします。APARに添付されているREADMEの指示に従います。

  6. 既存の投票ディスク論理ボリュームが別々のハード・ディスクにあり、かつこれらの各ディスクに十分な領域(MNDHB論理ボリューム用に256MB以上)があるかどうかを確認します。ある場合は、各ハード・ディスクにMNDHB論理ボリュームを作成します。ない場合は、次のコマンドを使用して、別々のハード・ディスクにMNDHB論理ボリュームと投票ディスクを新しく作成します。イタリック体の部分は、ご使用のシステムに合わせて適切に読み換えてください。

    # smitty cl_add_mndhb_lv 
    - Select_resource_group
    * Physical Volume name Enter F4, then select disk for the MNDHB and Voting Disk pair
    Logical Volume Name [] 
    Logical Volume Label [] 
    Volume Group name ccvg 
    Resource Group Name shared_storage 
    Network Name [net_diskhbmulti_01] 
    
  7. HACMP構成を確認し、同期させます。

  8. すべてのノードでHACMPを起動します。

  9. 手順5で投票ディスク用に論理ボリュームを新しく追加した場合は、既存の投票ディスクを新しいディスクに置き換えます。

  10. 次のコマンドを入力して、Oracle Clusterwareを再度有効にします。

    # crsctl enable crs
    
  11. すべてのノードのOracle Clusterwareを起動し、すべてのリソースが適切に起動することを確認します。

6.2.7 Oracle Clusterware用のRAW論理ボリュームの構成


注意:

Oracle ClusterwareにRAW論理ボリュームを使用するには、すべてのクラスタ・ノードにHACMPをインストールおよび構成する必要があります。

この項では、Oracle Clusterwareおよびデータベース・ファイル記憶域用にRAW論理ボリュームを構成する方法について説明します。この項では、両方のファイル・タイプに必要な論理ボリュームを含む新しいボリューム・グループを作成する手順を説明します。

続行する前に、今回のリリースのOracle RACでボリューム・グループを使用する場合の重要な情報が含まれている次のガイドラインを確認してください。

  • Oracle Clusterwareには、コンカレント対応のボリューム・グループを使用する必要があります。

  • Oracle Clusterwareファイルには、560MB未満のディスク領域(外部冗長を使用)が必要です。ボリューム・グループのディスク領域を効率的に使用するには、Oracle Clusterwareファイルおよびデータベース・ファイルの両方で、論理ボリュームに同じボリューム・グループを使用することをお薦めします。

  • RAW論理ボリュームを使用する既存のOracle9iリリース2のOracle RACインストールをアップグレードする場合は、OCR用の既存のSRVM構成リポジトリ論理ボリュームを使用し、同じボリューム・グループにOracle Clusterware投票ディスク用の新しい論理ボリュームを作成できます。ただし、Oracle Clusterwareをインストールする前に、このボリューム・グループをアクティブ化するHACMPのコンカレント・リソース・グループからこのボリューム・グループを削除しておく必要があります。


    関連項目:

    コンカレント・リソース・グループからのボリューム・グループの削除については、HACMPのドキュメントを参照してください。


    注意:

    データベースをアップグレードする場合は、SYSAUX表領域用に新しい論理ボリュームも作成する必要があります。Oracle Clusterware投票ディスクおよびSYSAUX論理ボリュームの要件の詳細は、第6.2.8項「新しいOracle Clusterwareボリューム・グループへのRAW論理ボリュームの構成」を参照してください。

  • データベース・ファイルのみを含む(Oracle Clusterwareファイルは含まない)新しいボリューム・グループまたは既存のボリューム・グループをアクティブ化するには、HACMPのコンカレント・リソース・グループを使用する必要があります。


    関連項目:

    新規または既存のコンカレント・リソース・グループへのボリューム・グループの追加については、HACMPのドキュメントを参照してください。

  • Oracle Clusterwareに使用するすべてのボリューム・グループは、インストールを開始する前に、コンカレント・モードでアクティブ化する必要があります。

  • この項では、基本的なボリューム・グループとボリュームを作成する手順について説明します。ミラー化を使用するなど、より複雑なボリュームを構成する場合は、この項とともにHACMPのドキュメントも参照してください。

6.2.8 新しいOracle Clusterwareボリューム・グループへのRAW論理ボリュームの構成

新しいOracle Clusterwareボリューム・グループに必要なRAW論理ボリュームを作成するには、次の手順を実行します。

  1. 作成する必要がある論理ボリュームを確認します。

  2. 必要に応じて、コマンドsmit mklvを使用し、RAW論理ボリュームを作成することもできます。

    次の例は、物理パーティション・サイズが114MB(1792/7 = 256)の場合に、SYSAUX表領域用の論理ボリュームをocrボリューム・グループに作成するために使用するコマンドを示しています。

    # /usr/sbin/mklv -y test_sysaux_raw_1792m -T O -w n -s n -r n ocr 7
    
  3. 次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。


    注意:

    Oracle Cluster Registryに関連付けられるデバイス・ファイルは、rootが所有する必要があります。その他のすべてのデバイス・ファイルは、Oracleソフトウェア所有者ユーザー(oracle)が所有する必要があります。

    # chown oracle:dba /dev/rora_vote_raw_280m
    # chmod 660 /dev/rora_vote_raw_280m
    # chown root:oinstall /dev/rora_ocr_raw_280m
    # chmod 640 /dev/rora_ocr_raw_280m
    

6.2.9 データベース・ファイル用のボリューム・グループの作成

Oracleデータベース・ファイル用のボリューム・グループを作成するには、次の手順を実行します。

  1. 必要に応じて、使用する共有ディスクをインストールします。

  2. すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。

    # /usr/sbin/lsdev -Cc disk
    

    このコマンドの出力結果は、次のようになります。

    hdisk0 Available 1A-09-00-8,0  16 Bit LVD SCSI Disk Drive
    hdisk1 Available 1A-09-00-9,0  16 Bit LVD SCSI Disk Drive
    hdisk2 Available 17-08-L       SSA Logical Disk Drive
    
  3. ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。

    # /usr/sbin/cfgmgr
    
  4. 任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。

    # /usr/sbin/lspv
    

    このコマンドの出力結果は、次のようになります。

    hdisk0     0000078752249812   rootvg
    hdisk1     none               none
    hdisk4     00034b6fd4ac1d71   ccvg1
    

    このコマンドは、各ディスクについて次の内容を示します。

    • ディスク・デバイス名

    • 16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone

    • ディスクが属しているボリューム・グループまたはnone

    使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。

  5. ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。

    # /usr/sbin/chdev -l hdiskn -a pv=yes
    
  6. クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。

    # ls -la /dev | more
    

    このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。

    crw-rw----   1 root     system    45,  0 Jul 19 11:56 vg1
    

    この例では、45はvg1ボリューム・グループ・デバイスのメジャー番号です。

  7. クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。

  8. 次のコマンドを入力するか、またはSMIT(smit mkvg)を使用して、ボリューム・グループを作成します。

    # /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \
    -C PhysicalVolumes
    
  9. 次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvgのマニュアル・ページを参照してください。

    コマンド・オプション SMITフィールド サンプル値および説明
    -y VGname
    
    VOLUME GROUP name
    oracle_vg1
    
    ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。
    -y VGname
    
    VOLUME GROUP name
    oracle_vg1
    
    ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。
    -B
    
    Create a big VG format Volume Group ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。

    注意: SMITを使用している場合、このフィールドは「yes」を選択します。

    -s PPsize
    
    Physical partition SIZE in megabytes
    32
    
    データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB * 1016)のディスクを含めることができます。
    -V Majornum
    
    Volume Group MAJOR NUMBER
    46
    
    手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。
    -n
    
    Activate volume group AUTOMATICALLY at system restart ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。

    注意: SMITを使用している場合、このフィールドは「no」を選択します。

    -C
    
    Create VG Concurrent Capable コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。

    注意: SMITを使用している場合、このフィールドは「yes」を選択します。

    PhysicalVolumes
    
    PHYSICAL VOLUME names
    hdisk3 hdisk4
    
    ボリューム・グループに追加するディスクのデバイス名を指定します。

  10. 次のコマンドを入力して、作成したボリューム・グループを有効にします。

    # /usr/sbin/varyonvg VGname
    

6.2.10 Oracle Clusterware用のボリューム・グループの作成

Oracle Clusterwareファイル用のボリューム・グループを作成するには、次の手順を実行します。

  1. 必要に応じて、使用する共有ディスクをインストールします。

  2. すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。

    # /usr/sbin/lsdev -Cc disk
    

    このコマンドの出力結果は、次のようになります。

    hdisk0 Available 1A-09-00-8,0  16 Bit LVD SCSI Disk Drive
    hdisk1 Available 1A-09-00-9,0  16 Bit LVD SCSI Disk Drive
    hdisk2 Available 17-08-L       SSA Logical Disk Drive
    
  3. ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。

    # /usr/sbin/cfgmgr
    
  4. 任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。

    # /usr/sbin/lspv
    

    このコマンドの出力結果は、次のようになります。

    hdisk0     0000078752249812   rootvg
    hdisk1     none               none
    hdisk4     00034b6fd4ac1d71   ccvg1
    

    このコマンドは、各ディスクについて次の内容を示します。

    • ディスク・デバイス名

    • 16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone

    • ディスクが属しているボリューム・グループまたはnone

    使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。

  5. ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。

    # /usr/sbin/chdev -l hdiskn -a pv=yes
    
  6. クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。

    # ls -la /dev | more
    

    このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。

    crw-rw----   1 root     system    45,  0 Jul 19 11:56 vg1
    

    この例では、45はvg1ボリューム・グループ・デバイスのメジャー番号です。

  7. クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。

  8. 次のコマンドを入力するか、またはSMIT(smit mkvg)を使用して、ボリューム・グループを作成します。

    # /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \
    -C PhysicalVolumes
    
  9. 次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvgのマニュアル・ページを参照してください。

    コマンド・オプション SMITフィールド サンプル値および説明
    -y VGname
    
    VOLUME GROUP name
    oracle_vg1
    
    ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。
    -y VGname
    
    VOLUME GROUP name
    oracle_vg1
    
    ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。
    -B
    
    Create a big VG format Volume Group ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。

    注意: SMITを使用している場合、このフィールドは「yes」を選択します。

    -s PPsize
    
    Physical partition SIZE in megabytes
    32
    
    データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB * 1016)のディスクを含めることができます。
    -V Majornum
    
    Volume Group MAJOR NUMBER
    46
    
    手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。
    -n
    
    Activate volume group AUTOMATICALLY at system restart ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。

    注意: SMITを使用している場合、このフィールドは「no」を選択します。

    -C
    
    Create VG Concurrent Capable コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。

    注意: SMITを使用している場合、このフィールドは「yes」を選択します。

    PhysicalVolumes
    
    PHYSICAL VOLUME names
    hdisk3 hdisk4
    
    ボリューム・グループに追加するディスクのデバイス名を指定します。

  10. 次のコマンドを入力して、作成したボリューム・グループを有効にします。

    # /usr/sbin/varyonvg VGname
    

6.2.11 他のクラスタ・ノードでのボリューム・グループのインポート

ボリューム・グループをクラスタ内のすべてのノードで使用可能にするには、次の手順に従って、各ノードにインポートする必要があります。

  1. 物理ボリューム名は他のノードでは異なる場合があるため、次のコマンドを入力して、ボリューム・グループが使用する物理ボリュームのPVIDを確認します。

    # /usr/sbin/lspv
    
  2. ボリューム・グループが使用する物理デバイスのPVIDを書き留めます。

  3. ボリューム・グループを作成したノードで次のコマンドを入力し、使用するボリューム・グループを無効にします。

    # /usr/sbin/varyoffvg VGname
    
  4. 各クラスタ・ノードで、次の手順を実行します。

    1. 次のコマンドを入力して、前述の手順で書き留めたPVIDに関連付けられている物理ボリューム名を確認します。

      # /usr/sbin/lspv
      
    2. クラスタの各ノードで、次のコマンドを入力し、ボリューム・グループの定義をインポートします。

      # /usr/sbin/importvg -y VGname -V MajorNumber PhysicalVolume
      

      この例では、MajorNumberはボリューム・グループのデバイスのメジャー番号、PhysicalVolumeはボリューム・グループにある物理ボリュームのうちの1つの名前です。

      たとえば、hdisk3およびhdisk4物理ボリューム上のデバイスのメジャー番号45を持つoracle_vg1ボリューム・グループの定義をインポートする場合は、次のコマンドを入力します。

      # /usr/sbin/importvg -y oracle_vg1 -V 45 hdisk3
      
    3. 次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。

      # chown oracle:dba /dev/rora_vote_raw_280m
      # chmod 660 /dev/rora_vote_raw_280m
      # chown root:oinstall /dev/rora_ocr_raw_280m
      # chmod 640 /dev/rora_ocr_raw_280m
      
    4. 次のコマンドを入力して、ノードの起動時に、オペレーティング・システムによってボリューム・グループがアクティブ化されないことを確認します。

      # /usr/sbin/chvg -a n VGname
      

6.2.12 べてのクラスタ・ノードでのコンカレント・モードによるボリューム・グループのアクティブ化

すべてのクラスタ・ノードで、ボリューム・グループをコンカレント・モードでアクティブ化するには、各ノードで次のコマンドを入力します。

# /usr/sbin/varyonvg -c VGname

6.3 オペレーティング・システムおよびDirect NFSクライアントの構成

オペレーティング・システムおよびDirect NFSクライアントを構成するには、次の項を参照してください。

6.3.1 オペレーティング・システムNFSマウントおよびバッファ・サイズ・パラメータの構成

GridホームまたはOracle RACホームにNFSを使用している場合、次を有効にするために記憶域にNFSマウントを設定する必要があります。

  • 記憶域にマウントされるクライアントのrootユーザーは、(匿名ユーザーとしてマップされているのではなく、)ファイル・サーバーのrootユーザーとみなすことができます。

  • クライアント・サーバーのrootユーザーは、ファイル・サーバーのrootが所有しているNFSファイル・システムにファイルを作成できます。

NFSでは、サーバー側でno_root_squashを有効にすることで、記憶域に書込みを行うクライアントにrootアクセス権を取得できます。たとえば、ドメインmycluster.example.comのノードnode1、node2、node3について、パス/vol/gridのOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/exportsファイルに追加します。

/vol/grid/ node1.mycluster.example.com(rw,no_root_squash)
node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com
(rw,no_root_squash) 

ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにrootアクセス権を付与します。

次に例を示します。

/vol/grid/ *.mycluster.example.com(rw,no_root_squash)

この構文を使用すると、NFSサーバーを再構成する必要なくノードの追加や削除を行えるので、セキュアなDNSまたはドメインを使用し、そのドメインを利用するクラスタ・メンバー・ノードにrootアクセス権を付与することをお薦めします。

グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。


注意:

ドメイン単位でrootアクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、no_root_squashの使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。

/etc/exportsを変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。

# /usr/sbin/exportfs -avr

6.3.2 オペレーティング・システムNFSマウントおよびバッファ・サイズ・パラメータのチェック

Oracle Grid Infrastructureクラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。

バイナリのNFSクライアント側のマウント・オプションは次のとおりです。

rw,bg,hard,nointr,tcp,nfsvers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0

NFSマウント上にOracle Grid Infrastructureのバイナリがある場合は、nosuidオプションを使用しないでください。

Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。

rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0

ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstabファイルを更新します。たとえば、プラットフォームがx86-64であり、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstabファイルを次のエントリで更新します。

nfs_server:/vol/grid  /u02/oracle/cwfiles nfs \
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0

Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。

バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。

nfs_server:/vol/bin /u02/oracle/grid nfs \
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0,suid 0 0

関連項目:

マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。

https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=359515.1



注意:

マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。

6.3.3 Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認

Oracle RACファイルのNFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。NFSファイル・システムをマウントするときは、NASベンダーがデバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。推奨されるマウント・ポイント・オプションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。

各ノードの/etc/fstabファイルを次のエントリで更新します。

nfs_server:/vol/DATA/oradata  /u02/oradata     nfs\   
rw,bg,hard,nointr,tcp,nfsvers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0

必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。これらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。これらのマウント・オプションの使用に失敗すると、ファイル・アクセス・エラーが生成される可能性があります。使用するプラットフォームでサポートされている個々のオプションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。


関連項目:

NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=359515.1

6.3.4 Direct NFSクライアントのためのTCPネットワーク・プロトコル・バッファの設定

デフォルトでネットワークのバッファ・サイズは、TCPでは1 MB、UDPでは2 MBに設定されます。TCPバッファ・サイズはファイル転送に制限を設定することが可能で、これはDirect NFSクライアント・ユーザーのパフォーマンスにマイナスの影響を与える場合があります。

現在のTCPバッファ・サイズをチェックするには、次のコマンドを入力します。

# /usr/sbin/no -o sb_max

サーバーのリンク速度に基づいて値を設定することをお薦めします。次に例を示します。

# /usr/sbin/no -p -o sb_max=524288

TCPの変更を永続的なものにするには、/etc/rc.netファイルに次の行を追加します。

/usr/sbin/no -o sb_max=524288

6.3.5 NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化

Direct NFSクライアントを有効にするには、次の手順を実行します。

  1. Direct NFSクライアントを使用してアクセスするNFSサーバーごとに、次の属性を使用してoranfstabファイルを作成します。

    • server: NFSサーバー名。

    • local: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパスであり、データベース・ホスト上でifconfigコマンドを使用して表示できます。

    • path: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パスであり、NFSサーバー上でifconfigコマンドを使用して表示できます。

    • export: NFSサーバーからエクスポートされたパス。

    • mount: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。

    • mnt_timeout: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600)です。

    • nfs_version: Direct NFSクライアントが使用するNFSプロトコルのバージョンを指定します。設定可能な値は、NFSv3、NFSv4およびNFSv4.1です。デフォルトのバージョンはNFSv3です。NFSv4.xを選択する場合、oranfstabnfs_versionの値を構成する必要があります。

    • dontroute: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、そのメッセージがバインドされたIPアドレスを使用して送信するよう指定します。

    • management: Direct NFSクライアントを有効にして、SNMP問合せの管理インタフェースを使用します。SNMPがNFSサーバー上の別の管理インタフェースで実行されている場合は、このパラメータを使用できます。デフォルト値は、serverパラメータ値です。

    • community: SNMP問合せで使用するコミュニティ文字列を指定します。デフォルト値はpublicです。


    関連項目:

    非同期I/Oの制限の詳細は、『Oracle Databaseパフォーマンス・チューニング・ガイド』を参照してください。

    この後の例では、oranfstabのNFSサーバー・エントリを3種類示しています。1つのoranfstabに、複数のNFSサーバー・エントリを含めることができます。

    例6-1 ローカルおよびパスのNFSサーバー・エントリを使用

    次の例では、ローカルとパスの両方を使用しています。localとpathは異なるサブネットにあるため、dontrouteを指定する必要はありません。

    server: MyDataServer1
    local: 192.0.2.0
    path: 192.0.2.1
    local: 192.0.100.0
    path: 192.0.100.1
    export: /vol/oradata1 mount: /mnt/oradata1
    nfs_version: nfsv3
    community: private
    

    例6-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)

    次の例では、同一サブネット内のローカルおよびパスを示しています。ここではdontrouteが指定されています。

    server: MyDataServer2
    local: 192.0.2.0
    path: 192.0.2.128
    local: 192.0.2.1
    path: 192.0.2.129
    dontroute
    export: /vol/oradata2 mount: /mnt/oradata2
    nfs_version: nfsv4
    management: 192.0.10.128
    

    例6-3 IPアドレスのかわりに名前を使用(複数のエクスポート)

    server: MyDataServer3
    local: LocalPath1
    path: NfsPath1
    local: LocalPath2
    path: NfsPath2
    local: LocalPath3
    path: NfsPath3
    local: LocalPath4
    path: NfsPath4
    dontroute
    export: /vol/oradata3 mount: /mnt/oradata3
    export: /vol/oradata4 mount: /mnt/oradata4
    export: /vol/oradata5 mount: /mnt/oradata5
    export: /vol/oradata6 mount: /mnt/oradata6
    
  2. デフォルトでは、Direct NFSクライアントは有効な状態でインストールされます。ただし、Direct NFSクライアントが無効な場合に有効にするには、各ノードで次の手順を実行します。共有Gridホームをクラスタに使用する場合は、共有Gridホームで次の手順を完了します。

    1. Oracle Grid Infrastructureインストール所有者としてログインします。

    2. Grid_home/rdbms/libディレクトリに移動します。

    3. 次のコマンドを入力します。

      $ make -f ins_rdbms.mk dnfs_on
      

6.3.6 oranfstabファイルを使用したネットワーク・パスの指定

Direct NFSクライアントでは、NFSサーバー用のoranfstabファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。

クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。

  • gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。

  • gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。

  • gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。

  • gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。


注意:

シングル・インスタンスにはv$ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ビューを使用します。

6.3.7 Direct NFSクライアントにおけるハイブリッド列圧縮の有効化

Direct NFSクライアントでハイブリッド列圧縮(HCC)を有効にする手順:

  1. ZFSストレージ・サーバーでSNMPが有効であることを確認します。次に例を示します。

    $ snmpinfo -v1 -c public server_name .1.3.6.1.4.1.42.2.225.1.4.2.0
    enterprises.42.2.225.1.4.2.0 = 53:75:6e:20:53:74:6f:72:61:67:65:20:37:34:31:30
    

    前述の一連のバイト53:75:6e:....:31:30は、Sun Storage 7410のASCII文字表現です。

  2. NFSサーバー以外のインタフェースでSNMPが有効な場合は、managementパラメータを使用してoranfstabを構成します。

  3. public以外のコミュニティ文字列を使用してSNMPが構成されている場合は、communityパラメータを使用してoranfstabファイルを構成します。

  4. libnetsnmp.soがインストールされていることを確認します。libnetsnmp.soがインストールされていない場合は、次のURLからダウンロードしてインストールします。

    https://oss.oracle.com/netsnmp/


    注意:

    IBM AIX on POWER Systems (64-Bit)では、HCCはブロック・ベースのデバイスではサポートされていません。

6.3.8 共有ファイル・システムでのOracle Clusterwareファイル用のディレクトリの作成

次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。


注意:

NFSまたはGPFS記憶域の場合、別々のファイル・システムにあるOracle ClusterwareファイルをOracleベース・ディレクトリに格納する場合にのみ、この手順を実行する必要があります。

Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。

  1. 必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。


    注意:

    ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。

  2. dfコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。

  3. 表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。

    複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。

  4. 選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。

  5. インストールを実行しているユーザー(通常、gridoracle)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。

    インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle、Oracle Clusterwareファイルの記憶域がclusterの場合は、次のようになります。

    # mkdir /mount_point/cluster
    # chown oracle:oinstall /mount_point/cluster
    # chmod 775 /mount_point/cluster
    

    注意:

    インストール後、OCRファイルのインストール・パスにあるディレクトリはrootが所有し、root以外のアカウントでは書込みできないようにする必要があります。

マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid Infrastructure用のOCFS2またはNFSの構成は完了です。

6.3.9 共有ファイル・システムでのOracle Databaseファイル用のディレクトリの作成

Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。

  1. 必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。


    注意:

    ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。

  2. df -hコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。

  3. 表示された情報から、ファイル・システムを特定します。

    ファイル・タイプ ファイル・システムの要件
    データベース・ファイル 次のいずれかを選択します。
    • 1.5GB以上の空き領域を持つ単一のファイル・システム

    • 合計1.5GB以上の空き領域を持つ複数のファイル・システム

    リカバリ・ファイル 2GB以上の空き領域を持つ単一のファイル・システムを選択します。

    複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。

  4. 選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。

  5. インストールを実行しているユーザー(通常、oracle)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。

    インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。

    • データベース・ファイル・ディレクトリ:

      # mkdir /mount_point/oradata
      # chown oracle:oinstall /mount_point/oradata
      # chmod 775 /mount_point/oradata
      
    • リカバリ・ファイル・ディレクトリ(高速リカバリ領域):

      # mkdir /mount_point/fast_recovery_area
      # chown oracle:oinstall /mount_point/fast_recovery_area
      # chmod 775 /mount_point/fast_recovery_area
      

oinstallグループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。

それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のNFSの構成は完了です。

6.3.10 NFSのDirect NFSクライアントのOracle Disk Management制御の無効化

Direct NFSクライアントを無効にするには、次の手順を実行します。

  1. Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします。Grid_homeはOracle Grid Infrastructureホームへのパスです。

    $ cd Grid_home/rdbms/lib
    $ make -f ins_rdbms.mk dnfs_off
    

    クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。

  2. oranfstabファイルを削除します。


注意:

Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。

6.4 Oracle Automatic Storage Managementの記憶域の構成

次の項で、Oracle Automatic Storage Managementの記憶域の構成について説明します。

6.4.1 Oracle Automatic Storage Management用の記憶域の構成

この項では、Oracle Automatic Storage Management (Oracle ASM)で使用する記憶域の構成方法について説明します。

6.4.1.1 Oracle Automatic Storage Managementの記憶域要件の指定

Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。

  1. Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ファイル)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。


    注意:

    • Oracle Clusterware、Oracle Databaseファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。一方のファイル・タイプに共有ファイル・システムを、他方にOracle ASMを使用することもできます。
    • Oracle Clusterwareには、OCRファイルと投票ファイルの2つのタイプのファイルがあります。各タイプのファイルは、Oracle ASMまたはクラスタ・ファイル・システムのいずれかに格納できます。すべてのOCRファイルまたはすべての投票ファイルは、同じタイプの記憶域を使用する必要があります。一部のOCRファイルをOracle ASMに格納し、その他のOCRファイルをクラスタ・ファイル・システムに格納することはできません。ただし、各タイプのすべてのファイルで同じタイプの記憶域を使用する場合は、OCRファイルに1つのタイプの記憶域を使用し、投票ファイルに異なるタイプの記憶域を使用できます。


  2. Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。

    Oracle ASMディスク・グループに選択した冗長レベルによって、Oracle ASMがディスク・グループ内のファイルをミラー化する方法および必要となるディスク数と空きディスク領域が決まります。投票ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ファイル)があるディスク・グループは、投票ファイルは定数障害グループに格納されているので、他のディスク・グループよりも障害グループの最小数が多くなります。

    定数障害グループは、Oracle Clusterware投票ファイルを格納する特殊なタイプの障害グループです。定数障害グループは、指定した障害グループの定数が使用可能であることを確認するために使用されます。Oracle ASMがOracle Clusterwareのファイルを含むディスク・グループをマウントすると、1つ以上の障害グループが失われたときにディスク・グループをマウントすることが可能かどうか決定するために定数障害グループが使用されます。定数障害グループ内のディスクには、ユーザー・データは含まれないので、定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。

    冗長レベルは、次のとおりです。

    • 外部冗長

      外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。

      Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。

    • 標準冗長

      標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。

      標準冗長ディスク・グループでは、Oracle Clusterwareファイル用に最小で3台のディスク・デバイスを必要とし(3つのディスクのうちの2つは障害グループに使用され、3つのディスクすべては定数障害グループで使用されます)、3つの投票ファイルと1つのOCR(プライマリとセカンダリ・コピーに1つずつ)が提供されます。標準冗長のクラスタは、障害グループを1つ失っても存続できます。

      ほとんどの使用環境では、標準冗長を選択することをお薦めします。

    • 高冗長

      高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。

      高冗長ディスク・グループでは、Oracle Clusterwareファイル用に最小で5台のディスク・デバイスを必要とし(5つのディスクのうちの3つは障害グループに使用され、5つのディスクすべては定数障害グループで使用されます)、5つの投票ファイルと1つのOCR(プライマリ・コピーが1つとセカンダリ・コピーが2つ)が提供されます。高冗長のクラスタは、障害グループを2つ失っても存続できます。

      高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。


    注意:

    ディスク・グループの作成後に、ディスク・グループの冗長レベルを変更することはできません。

  3. Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。

    表6-4表6-5を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します。投票ファイルは別のディスク・グループにあるものとします。

    表6-4 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計

    冗長レベル ディスクの最小台数 Oracle Cluster Registry(OCR)ファイル 投票ファイル 合計 グリッド・インフラストラクチャ管理リポジトリを伴う記憶域の合計

    外部

    1

    400MB

    300MB

    700MB

    4以下のノードのクラスタには5.9GB以上(5.2GB + 400MB + 300MB)。

    5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、6.9GB以上を割り当てる。

    (5.2GB +2*(500MB) +400MB + 300MB)。

    標準

    3

    障害グループごとに400MB以上または800MB

    900MB

    1.7GB脚注 1 

    4ノード以下のクラスタに12.1GB以上(2 * 5.2GB + 2 * 400MB + 3 * 300MB)。

    5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、14.1GB以上を割り当てる。

    (2 * (5.2GB + 2 * (500MB)) + (2 * 400MB) + (3 * 300MB))。

    5

    障害グループごとに400MB以上または1.2GB

    1.5GB

    2.7GB

    4ノード以下のクラスタに18.3GB以上(3 * 5.2GB + 3 * 400MB + 5 * 300MB)。

    5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、21.3GB以上を割り当てる。

    (3 * (5.2GB + 2 * (500MB)) + (3 * 400MB) + (5 * 300MB))。


    脚注 1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。


    注意:

    投票ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ファイル)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。

    インストール中に、OCRおよび投票ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。


    表6-5 冗長タイプによるOracle Databaseに必要な記憶領域の合計

    冗長レベル ディスクの最小台数 データベース・ファイル リカバリ・ファイル 合計

    外部

    1

    1.5GB

    3GB

    4.5GB

    標準

    2

    3GB

    6GB

    9GB

    3

    4.5GB

    9GB

    13.5GB


  4. 割当て単位サイズを決定します。すべてのOracle ASMディスクは割当て単位(AU)に分割されます。割当て単位は、ディスク・グループ内の割当ての基本単位です。特定のディスク・グループ互換レベルに応じて、AUサイズの値に1、2、4、8、16、32、64MBを選択できます。デフォルト値は1MBに設定されています。

  5. Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ファイルおよびOracle ASMメタデータのディスク領域の要件(単位: MB)を計算します。

    合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]

    説明は次のとおりです。

    • redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)

    • ausize: メタデータのAUサイズ(MB単位)

    • nodes: クラスタ内のノード数

    • clients - 各ノードのデータベース・インスタンス数

    • disks - ディスク・グループ内のディスク数

    たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、追加領域が必要になります。

    [2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB

    Oracle ASMでのOracle Clusterwareファイルの高可用性を確保するには、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。各ディスクには1GB以上の容量を確保して、容量に余裕を持ってOracle Clusterwareファイルを作成できるようにする必要があります。

  6. 必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。

    標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。

    このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。


    注意:

    インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd、またはSQLコマンドを使用して、カスタム障害グループを定義します。

    カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。

    データベース・ファイルと、投票ファイルを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。

    投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。


  7. システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。

    • Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。

    • 単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。各ディスク・グループのデバイスは、別々の物理ディスク上に存在する必要があります。

    • 論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。

      論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。


関連項目:

割当て単位の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

6.4.1.2 Oracle ASMで使用するためのNASデバイスでのファイルの作成

動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。

そのファイルを作成するには、次の手順を実行します。

  1. 必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。

    この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。

  2. ユーザーをrootに切り替えます。

  3. マウント・ポイント・ディレクトリをローカル・システムに作成します。次に例を示します。

    # mkdir -p /mnt/asm
    
  4. システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/vfstabにファイル・システムのエントリを追加します。


    関連項目:

    NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
    https://support.oracle.com
    

    オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、manページを参照してください。推奨されるマウント・オプションの詳細は、「オペレーティング・システムのNFSマウントおよびバッファ・サイズ・パラメータの構成」を参照してください。

  5. 次のコマンドを入力して、NFSファイル・システムをローカル・システムにマウントします。

    # mount /mnt/asm
    
  6. 作成するディスク・グループの名前を選択します。たとえば、sales1とします。

  7. NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。次に例を示します。

    # mkdir /mnt/asm/nfsdg
    
  8. 次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。

    # dd if=/dev/zero of=/mnt/asm/nfsdg/disk1 bs=1024k count=1000
    

    この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。

  9. 作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid、OSASMグループはasmadminです。

    # chown -R grid:asmadmin /mnt/asm
    # chmod -R 660 /mnt/asm
    
  10. Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。

    /mnt/asm/sales1/
    

    注意:

    インストール中に、Oracle ASMにマウントされたディスク・パスがデフォルトのデータベース記憶域の候補ディスクとしてリストされます。

6.4.1.3 既存のOracle ASMディスク・グループの使用

既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。

  • Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。

    インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。

  • Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。


注意:

既存ディスク・グループを管理するOracle ASMインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。

Oracle ASMディスク・グループがすでに存在するかどうか、またはディスク・グループのディスク領域が十分にあるかどうかを判断するには、Oracle Enterprise Manager Cloud ControlまたはOracle ASMコマンドライン・ツール(asmcmd)を次のとおりに使用します。

  1. Oracle ASMインスタンスに接続し、必要に応じてインスタンスを起動します。

    $ $ORACLE_HOME/bin/asmcmd
    ASMCMD> startup
    
  2. 次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。

    ASMCMD> lsdb
    

    または

    $ORACLE_HOME/bin/asmcmd -p lsdg
    
  3. 出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。

  4. 必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。


    注意:

    既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。

6.4.1.4 Oracle ASM用のディスク・デバイスの構成

Oracle Automatic Storage Management (Oracle ASM)ディスク・グループとして使用するRAWディスクを構成できます。Oracle ASMをRAWディスクで使用するには、データ・ファイル用に十分なパーティションを作成した後、そのパーティションをRAWディスクにバインドする必要があります。データ・ファイル用に作成するRAWディスク名のリストを作成し、そのリストをデータベースのインストール時に使用できるようにします。

次の手順で、物理ボリュームID(PVID)をRAWディスク用に設定するように指示されます。構成の問題を回避するために、ご使用のシステムでPVIDを構成していない場合でも、この手順全体を完了することをお薦めします。


注意:

ストレージにHitachi HDLM(dmlfデバイス)を使用する場合、ASMインスタンスは自動的には物理ディスクを検出せず、論理ボリューム・マネージャ(LVM)ディスクのみを検出します。これは、物理ディスクをオープンできるのはrootで実行しているプログラムのみであるためです。

物理ディスクのパスには、次のようなパス名があります。

/dev/rdlmfdrv8
/dev/rdlmfdrv9

ディスクを構成するには、次の手順を実行します。

  1. 必要に応じて、ディスク・グループに使用するディスクを設置し、システムを再起動します。

  2. Oracle ASMディスク・グループに含めるディスクを指定または作成します。任意のノードで、rootユーザーとして次のコマンドを入力し、使用するディスク・デバイスのデバイス名を確認します。

    # /usr/sbin/lspv | grep -i none 
    

    このコマンドによって、ボリューム・グループに構成されていないディスク・デバイスごとに、次のような情報が表示されます。

    hdisk17         0009005fb9c23648                    None  
    

    この例では、hdisk17はディスクのデバイス名、0009005fb9c23648は物理ボリュームID(PVID)です。

  3. 使用するディスク・デバイスにPVIDがない場合は、次のコマンドを入力してディスク・デバイスに割り当てます。nhdiskの数です。

    # chdev -l hdiskn -a pv=yes
    

    注意:

    既存のPVIDがある場合は、chdevによって上書きされます。以前のPVIDに依存するアプリケーションがある場合、それらは失敗することに注意してください。

  4. 他のそれぞれのノードで、次のコマンドを入力し、そのノードの各PVIDに関連付けられているデバイス名を確認します。

    # /usr/sbin/lspv | grep -i "0009005fb9c23648"
    

    このコマンドの出力結果は、次のようになります。

    hdisk18         0009005fb9c23648                    None
    

    この例では、ディスク・デバイスに関連付けられているデバイス名(hdisk18)は、前述のノードのものとは異なります。

  5. デバイス名がすべてのノードで同じである場合は、すべてのノードで次のコマンドを入力し、ディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。gridは、Oracle Grid Infrastructureインストールの所有者、asmadminはOSASMグループです。

    # chown grid:asmadmin /dev/rhdiskn
    # chmod 660 /dev/rhdiskn
    
  6. 複数のノードからディスク・デバイスに同時アクセスできるようにするには、ディスクで使用する予約属性のタイプに応じて、適切なObject Data Manager(ODM)属性を設定する必要があります。次の項では、論理名hdiskを使用してこのタスクを実行する方法について説明します。論理デバイス名については、ご使用のオペレーティング・システムのマニュアルを参照してください。

    ディスクで使用する予約設定を確認するには、次のコマンドを入力します。nはhdiskのデバイス番号です。

    # lsattr -E -l hdiskn | grep reserve_
    

    このコマンドの結果として、reserve_lock設定またはreserve_policy設定が返されます。属性がreserve_lockの場合は、設定がreserve_lock = noであることを確認します。属性がreserve_policyの場合は、設定がreserve_policy = no_reserveであることを確認します。

    必要に応じて、chdevコマンドで次の構文を使用して設定を変更します。nはhdiskのデバイス番号です。

    chdev -l hdiskn -a [ reserve_lock=no | reserve_policy=no_reserve ]
    

    たとえば、デバイスhdisk4の設定をreserve_lock=yesからreserve_lock=noに変更するには、次のコマンドを入力します。

    # chdev -l hdisk4  -a  reserve_lock=no
    

    すべてのディスク・デバイスで設定が適切であることを確認するには、次のコマンドを入力します。

    # lsattr -El hdiskn | grep reserve
    
  7. 任意のノードで次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。

    # /usr/sbin/chdev -l hdiskn -a pv=clear
    

    Oracle Clusterwareをインストールする際に、OCRおよびOracle Clusterware投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。

    /dev/rhdisk10
    

6.4.2 Oracle ASMでのOracle Databaseファイルとディスク・グループの使用

次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle Automatic Storage Managementの記憶域の構成について説明します。

6.4.2.1 Oracle ASM上の既存のOracle Databaseディスク・グループの指定と使用

次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。

  • 必要な場合は、Oracle Automatic Storage Managementディスク・グループのデバイスに障害グループを指定します。

    標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。

    このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。


    注意:

    カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。

6.4.2.2 Oracle Databaseデータ・ファイルのためのディスク・グループの作成

システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。

  • Oracle Automatic Storage Managementディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。

  • 単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle Automatic Storage Managementは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。

  • 論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、これを使用することはお薦めしません。共有されていない論理ボリュームはOracle RACではサポートされません。論理ボリュームをOracle RACデータベースに使用する場合は、クラスタ対応の論理ボリューム・マネージャによって作成された共有同時実行RAW論理ボリュームを使用する必要があります。

6.4.2.3 Oracle ASM資格証明ファイルの作成と使用

Oracle ASMストレージ・クライアントには、ノードで実行中のOracle ASMがなく、他のクライアント・クラスタのOracle ASM記憶域サービスを使用します。

Oracle ASMの資格証明ファイルを作成するには、ストレージ・サーバー上のGrid_home/binディレクトリから、メンバー・ノードの1つで次のコマンドを実行します(credential_fileが、作成するOracle ASM資格証明ファイルの名前とパスです)。

Grid_home/bin/asmcmd mkcc client_cluster_name credential_file

次に例を示します。

Grid_home/bin/asmcmd mkcc clientcluster1 /home/grid/clientcluster1_credentials.xml

クライアント・クラスタのインストールを実行するクライアント・クラスタ・ノード上の安全なパスに、Oracle ASM資格証明ファイルをコピーします。Oracleインストール・ユーザーには、このファイルへのアクセス権限が必要です。他のユーザーにOracle ASM資格証明ファイルへのアクセス権限を付与しないことをお薦めします。インストールの実行中、ファイルへのパスを入力するように求めるメッセージが表示されます。


注意:

  • Oracle ASM資格証明ファイルは、1回しか使用できません。Oracle ASMストレージ・クライアントを構成および構成解除する場合は、新しいOracle ASM資格証明ファイルを作成する必要があります。
  • Oracle ASM資格証明ファイルを使用してクライアント・クラスタを構成する場合、それを共有したり他のクライアント・クラスタの構成に再利用したりすることはできません。


6.4.3 Oracle Automatic Storage Management Cluster File Systemの構成

Oracle ACFSは、Oracle Grid Infrastructure (Oracle ClusterwareおよびOracle Automatic Storage Management)12cリリース1 (12.1)のインストールの一部として、インストールされます。Oracle ACFSをデータベース・ホーム用に構成したり、ASMCAを使用して汎用ファイルシステムとしてACFSを構成することができます。


注意:

Oracle ACFSは、AIX 6.1(PPC64)に対するAIX 6.1 TL4 SP2以上の更新でのみサポートされています。Oracle Grid Infrastructure for a Cluster 11gリリース2 (11.2.0.3)から、Oracle ACFSは、AIX 7.1のすべてのテクニカル・レベルでサポートされます。

Oracle RACデータベース用にOracle Databaseホーム用のOracle ACFSを構成するには、次の手順を実行します。

  1. クラスタ用Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)をインストールします。

  2. Oracle Grid Infrastructureホームに移動します。次に例を示します。

    $ cd /u01/app/12.1.0/grid
    
  3. Oracle Grid Infrastructureインストール所有者が、使用するストレージ・マウント・ポイントに対する読込みおよび書込み権限を持っていることを確認します。たとえば、マウント・ポイント/u02/acfsmounts/を使用する場合は次のようになります。

    $ ls -l /u02/acfsmounts
    
  4. Gridインストールの所有者として、Oracle ASM Configuration Assistantを起動します。次に例を示します。

    ./asmca
    
  5. 「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。「ASMクラスタ・ファイルシステム」タブをクリックします。

  6. 「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択します。

  7. 「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。

    • データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。この名前は、社内で一意である必要があります。たとえば、dbase_01とします。

    • データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。たとえば、/u02/acfsmounts/dbase_01とします。

      後で参照するために、このマウント・ポイントを書き留めます。

    • データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。

    • データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を入力します。たとえば、oracle1とします。

    • データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを入力します。このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与されます。たとえば、dba1とします。

    • 入力が完了したら、「OK」をクリックします。

  8. 特権ユーザー(root)として、Oracle ASM Configuration Assistantによって生成されたスクリプトを実行します。Oracle Clusterware環境では、Oracle Clusterwareによって管理されるリソースとしてACFSが登録されます。リソースとしてACFSを登録することによって、ACFSがOracle RACデータベース・ホームに使用される場合に、Oracle ClusterwareがACFSを適切な順序で自動的にマウントできるようになります。

  9. Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイント」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01)。


関連項目:

Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

6.4.4 既存のOracle ASMインスタンスのアップグレード

以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home/binにあるOracle Automatic Storage Management Configuration Assistant (ASMCA)を使用して、既存のOracle ASMインスタンスをOracle ASM 12cリリース1 (12.1)にアップグレードし、その後で障害グループ、Oracle ASMボリュームおよびOracle Automatic Storage Managementクラスタ・ファイル・システム(ACFS)を構成できます。


注意:

既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。

インストール時に、11.2より前のOracle ASMリリースからアップグレードする際に、Oracle ASMを使用することを選択し、ASMCAによって以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 12cリリース1 (12.1)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。次に、Oracle ASMボリュームを作成し、アップグレードしたOracle ASMを使用してOracle ACFSを作成することで、Oracle ACFSのデプロイメントを構成できます。

Oracle ASM 11gリリース2 (11.2.0.1)以上からアップグレードする場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。以前のリリースから現在のリリースまで、ASMCAがOracle ASMを個別にアップグレードすることはできません。

Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1以上の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。その場合、すべてのノード上のOracle ASMは12cリリース1 (12.1)にアップグレードされます。