Oracle® Grid Infrastructureインストレーション・ガイド 12cリリース1 (12.1) for IBM AIX on POWER Systems (64-Bit) E49837-10 |
|
前 |
次 |
この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management (Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。
この章の内容は次のとおりです。
この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。内容は次のとおりです。
関連項目: 動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
|
次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。
表6-1 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
次のガイドラインに従って、記憶域オプションを選択します。
この項では、Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)およびOracle Automatic Storage Management動的ボリューム・マネージャ(Oracle ADVM)について説明します。内容は次のとおりです。
Oracle ACFSによるOracle ASMテクノロジの拡張によって、単一インスタンスおよびクラスタ構成のどちらでも、すべてのアプリケーション・データがサポートされます。Oracle ADVMは、ボリューム管理サービスと、クライアントとの標準ディスク・デバイス・ドライバ・インタフェースを提供します。Oracle Automatic Storage Managementクラスタ・ファイルシステムは、Oracle Automatic Storage Management動的ボリューム・マネージャ・インタフェースを介してOracle ASMと通信します。
Oracle ACFSの次の点に注意してください。
Oracle ACFSおよびOracle ADVMは、IBM AIX Workload Partitions (WPARs)ではサポートされていません。
Oracle Automatic Storage Management Cluster File System (Oracle ACFS)は、汎用のファイル・システムです。このシステムにはOracle DatabaseバイナリおよびOracle Databaseファイルは配置できますが、Oracle ACFSにはOracle Clusterwareファイルを配置できません。
ポリシー管理型Oracle Flex Clusterデータベースの場合、Oracle ACFSはハブ・ノードで実行できますが、リーフ・ノードでは実行できない点に注意してください。このため、Oracle RACバイナリをリーフ・ノードのOracle ACFSに配置することができません。
Oracle Flex Clusterの場合、リーフ・ノードはハブ・ノードからACFSにOracleホームをマウントすることはできず、一部のノードはNFSを使用して同じOracleホームにアクセスする一方で、その他のノードは同じOracleホームのパスに対してACFSを使用するということはサポートされていません。
Oracle Restartは、rootベースのOracle Clusterwareリソースをサポートしません。このため、Oracle Restart構成でOracle ACFSを実行する場合は、次の制限が適用されます。
Oracle ACFSドライバは手動でロードおよびアンロードする必要があります。
Oracle ASMインスタンスの起動後、Oracle ACFSファイル・システムを手動でマウントおよびマウント解除する必要があります。
Oracle Restartでは、ファイル・システムにOracle Grid Infrastructureリソースを定義できません。このため、ACFSファイル・システムをデータベース・ホームまたはデータ・ファイルには使用できません。
Oracle ACFSデータベース・ホーム・ファイル・システムはOracle ACFSマウント・レジストリに配置できません。Oracle Grid Infrastructure 12cリリース1において、マウント・レジストリは完全に削除されました。
Oracle ClusterwareのバイナリおよびファイルをOracle ACFSに配置することはできません。
クラスタ用のOracle Grid Infrastructureでは、Oracleデータ・ファイルをOracle ACFSファイル・システムに作成することは、Oracle Database 12cリリース1からサポートされていません。
Oracle Databaseのバイナリおよび管理ファイル(トレース・ファイルなど)をOracle ACFSに配置できます。
Oracle ACFSでは、Oracle Databaseデータ・ファイル、表領域ファイル、制御ファイルおよびREDOログによるレプリケーションまたは暗号化は、サポートされていません。
注意: AIXでは、Oracle ACFSに次のインストール要件があります。
|
すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clustersデータベース(Oracle RAC)に使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にするには、リカバリ・ファイル(高速リカバリ領域)に使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。
Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が格納されます。投票ディスクとOCRファイルは、ASMディスク・グループ、クラスタ・ファイル・システム、共有ネットワーク・ファイル・システムのいずれかに配置できます。記憶域は共有される必要があります。構成されている投票ディスクの大半(過半数)が利用できないノードは再起動されます。
Standard EditionおよびStandard Edition 2 (SE2)のOracle RACインストールでは、データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。すべてのインストールについて、2つの以上のOracle ASMディスク・グループを作成することをお薦めします(Oracle Databaseデータ・ファイルおよびリカバリ・ファイル用にそれぞれ1つずつ)。Oracle Databaseディスク・グループおよびリカバリ・ファイル・ディスク・グループは別の障害グループに配置することをお薦めします。
Oracle ASMを使用しない場合は、データ・ファイルと高速リカバリ領域を、異なる場所にあるOracleホーム以外の共有記憶域に配置し、ハードウェアの障害による可用性の低下を防ぐことをお薦めします。
関連項目:
|
サポートされている記憶域のオプションには、次の追加のガイドラインを考慮してください。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 12cリリース1(12.1)がインストールされている。
クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle Grid Infrastructureのインストール時に、ディスク・グループを1つ作成できます。Oracle Grid Infrastructureのインストール後は、ASMCA、SQL*PlusまたはASMCMDを使用して追加のディスク・グループを作成できます。Oracle Database 11gリリース2(11.2)以上では、Oracle Database Configuration Assistant(DBCA)にOracle ASMのディスク・グループを作成する機能がないことに注意してください。
Oracle Grid Infrastructureのインストール後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ディスク・ファイルに同じディスク・グループを使用することも、別のディスク・グループを使用することもできます。Oracle RACをインストールする前、またはデータベースを作成する前に複数のディスク・グループを作成すると、次のいずれかを実行できます。
Oracle Clusterwareファイルと同じディスク・グループにデータ・ファイルを置きます。
データ・ファイルとリカバリ・ファイルに同じOracle ASMディスク・グループを使用します。
ファイル・タイプごとに別のディスク・グループを使用します。
ストレージとして1つのディスク・グループを作成した場合は、OCRおよび投票ディスク・ファイル、データベース・ファイル、リカバリ・ファイルはそのディスク・グループに格納されます。複数のディスク・グループを作成した場合は、ファイルを別のディスク・グループに格納することもできます。
注意: 既存ディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行する必要があります。 |
関連項目: ディスク・グループの作成については、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。いくつかのサード・パーティのボリューム・マネージャはクラスタ対応ではないため、サポートされていません。使用するボリューム・マネージャがサポートされているかどうかを確認するには、My Oracle Supportの「動作保証」をクリックし、そのボリューム・マネージャがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。
https://support.oracle.com
ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。
ファイル・システムを使用する場合は、第6.2項「共有ファイル・システムの記憶域の構成」を参照してください。
Oracle Automatic Storage Managementを使用する場合は、第6.4項「Oracle Automatic Storage Managementの記憶域の構成」を参照してください。
サーバーで検出される共有記憶域の場所に基づいて、インストーラはOracle Cluster Registry (OCR)およびOracle Clusterware投票ディスクのデフォルトの場所を提案します。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。
NFSファイル・システムを使用するには、サポートされているNASデバイス上にある必要があります。次のURLでMy Oracle Supportにログインし、「動作保証」をクリックして、サポートされているNASデバイスの最新情報を調べます。
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置する場合は、次のいずれかで共有ファイル・システムを構成することをお薦めします。
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 12c リリース1 (12.1)の機能を使用してOCRに冗長性を提供している。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
インストールを実行するユーザー・アカウント(oracle
またはgrid
)には、指定したパスにファイルを作成するための書込み権限が必要です。
表6-2と表6-3を使用して、共有ファイル・システムの最小サイズを決定します。
表6-2 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
外部冗長で作成された投票ディスク |
1 |
投票ディスク・ボリュームごとに300MB以上 |
外部冗長で作成され、グリッド・インフラストラクチャ管理リポジトリを持つOracle Cluster Registry (OCR) |
1 |
グリッド・インフラストラクチャ管理リポジトリを含むOCRボリュームに5.9GB以上(5.2GB + 300MBの投票ファイル + 400MBのOCR)と、4ノードより大きいクラスタのノードごとに500MB。たとえば、6ノードのクラスタの割当ては6.9GBになります。 |
Oracle Clusterwareファイル(OCRおよび投票ディスク)およびOracleソフトウェアが冗長性を提供するグリッド・インフラストラクチャ管理リポジトリ |
3 |
OCRボリュームごとに400MB以上 投票ディスク・ボリュームごとに300MB以上 2 x 5.2GB (通常の冗長性): ノード数が5以上の場合、追加のノードごとに500MBを加える。 たとえば、6つのノードのクラスタのサイズは14.1GBになる。
= 14.1GB |
表6-3 Oracle RAC共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表6-2および表6-3で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。投票ディスクおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で6.9GB以上の利用可能な記憶域が必要です。
注意: fdisk でデバイス・サイズ(+400M など)を指定し、共有パーティション上にパーティションを作成する際、実際に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合があります。これは、現在のfdiskにおける制限事項が原因です。Oracle ASMで使用するために割り当てたディスク全体をパーティション化することをお薦めします。 |
新規インストールの場合は、Oracle Automatic Storage Management (Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めします。
クラスタ・ファイル・システムを使用してIBM POWERにインストールする場合は、IBM General Parallel File System (GPFS)を使用する必要があります。
カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。
Oracle Databaseでは、オペレーティング・システム・カーネルのNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントというクライアントを使用して、直接NFSサーバーにアクセスするようOracle Databaseを構成できます。Direct NFSクライアントでは、NFSサーバーへのアクセスにNFSv3、NFSv4およびNFSv4.1プロトコル(パラレルNFS拡張を除く)がサポートされています。
Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでそれ独自のNFSクライアントが使用されます。
Direct NFSクライアントでは、NFSサーバーに対して最大4つのネットワーク・パスがサポートされます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
ポート範囲を制限するNFSサーバーの場合、root
でNFSサーバーに接続するのではなく、insecure
オプションを使用してクライアントを有効化できます。または、第6.3.10項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。
Direct NFSクライアントでは、構成ファイル$ORACLE_HOME/dbs/oranfstab
、またはオペレーティング・システムのマウント・タブ・ファイル/etc/mtab
を使用して、どのマウント・ポイントが使用可能であるかを特定します。oranfstab
が存在しない場合は、デフォルトで、/etc/mtab
にあるエントリにDirect NFSクライアント・サーバーがマウントします。これ以上の構成は必要ありません。oranfstab
を使用すると、Direct NFSクライアントを使用する追加のOracle Database操作を具体的に指定できます。たとえば、oranfstab
を使用して、マウント・ポイントの追加のパスを指定できます。
Direct NFSクライアントでは、NFSサーバーに対して最大4つのネットワーク・パスがサポートされます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
Direct NFSクライアントを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab
)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstab
を使用して、マウント・ポイントの追加のパスを指定できます。oranfstab
ファイルは、/etc
または$ORACLE_HOME/dbs
のいずれかに追加できます。
共有Oracleホームでは、oranfstab
ファイルが$ORACLE_HOME/dbs
に格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstab
ファイルが使用されます。共有されていないOracle RACインストールでは、oranfstab
をすべてのノードにコピーする必要があります。
oranfstab
ファイルが/etc
に格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstab
ファイルが/etc
に格納されている場合、/etc/fstab
ファイルの場合と同様に、すべてのノードに/etc/oranfstab
ファイルをレプリケートし、各/etc/oranfstab
ファイルをすべてのノードで同期させる必要があります。
マウント・ポイントがDirect NFSクライアントを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。オペレーティング・システムNFSの構成およびマウントを実行する方法については、そのベンダーのドキュメントを参照してください。
Direct NFSクライアントでは、/etc/mtab
の構成に基づいてNFSストレージ・デバイスに対するマウント・ポイントの設定を判断します(これは、/etc/fstab
ファイルを構成することによって変更できます)。
Direct NFSクライアントでは、次の順序でマウント・エントリが検索されます。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/mtab
Direct NFSクライアントでは、最初に検出されたエントリがマウント・ポイントとして使用されます。
Oracle Databaseでは、Direct NFSクライアントを介して提供されている場合でも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。
注意: インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。 |
Oracle Databaseでoranfstab
を使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab
内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSクライアントでは、情報メッセージを記録し、動作しません。
Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・オプションは、第6.3.3項「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSクライアントをNFSサーバーに接続することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。
第6.1.1項「サポートされている記憶域オプション」に、Direct NFSクライアントでサポートされているファイル・タイプを示します。
Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。
関連項目: Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。
そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。
関連項目: HACMPのデプロイメントおよび動作保証についての追加情報は、My Oracle Supportを参照してください。 |
Oracle Clusterwareの投票ディスクごとに、1つのMulti-node Disk Heartbeat(MNDHB)ネットワークを定義する必要があります。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。また、拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成する必要があります。
クラスタができるだけ分断されないように、複数のIPネットワークと1つ以上の非IPネットワークを使用してHACMPをデプロイすることをIBMは薦めています。非IPネットワークは、RS232またはディスク・ハートビートを使用して実装できます。データベースの記憶域にOracle RACおよびHACMP拡張コンカレント・リソース(拡張されたコンカレント論理ボリューム)を使用するシステムの場合は、MNDHBネットワークを構成する必要があります。
Oracle Clusterwareをインストールする前に、HACMPをインストールおよび構成し、稼働させる必要があります。Oracle RAC構成では、Oracle RACネットワーク・インタフェース(パブリック、VIPまたはプライベート)上のIPフェイルオーバーにHACMPを使用しないでください。Oracle RACのVIPフェイルオーバーは、Oracle Clusterwareによって管理されるため、これらのネットワーク・インタフェースは、HACMP IPフェイルオーバーを使用する構成にはしないでください。Oracle RACネットワーク・インタフェースは、個々のノードとOracle RACインスタンスに割り当てられます。HACMPが、異なるインタフェースでIPアドレスを再構成したり、異なるノードでアドレスをフェイルオーバーすると、Oracle Clusterwareで問題が発生する場合があります。Oracle RACノード上のIPアドレスのフェイルオーバーにHACMPを使用できるのは、Oracle RACがこれらのアドレスを使用しない場合のみです。
次の作業を完了します。イタリック体の部分は、ご使用のシステムにあわせて適切な応答に読み換えてください。または、示された操作を実行し、必要に応じて適切な応答を入力してください。
HACMPを起動します。
次のコマンドを入力して、HACMPのclcomdES
デーモンが実行中であることを確認します。
# lssrc -s clcomdES
デーモンが実行されていない場合は、次のコマンドを使用して起動します。
# startsrc –s clcomdES
ご使用のHACMPとAIXのバージョンが、第3.6項「IBM AIX on POWER Systems (64-Bit)のオペレーティング・システム要件」に示されているシステム要件を満たしていることを確認します。
HACMPクラスタを作成し、Oracle Clusterwareノードを追加します。次に例を示します。
# smitty cm_add_change_show_an_hacmp_cluster.dialog
* Cluster Name [mycluster]
各Oracle Clusterwareノードに、HACMPクラスタ・ノードを作成します。次に例を示します。
# smitty cm_add_a_node_to_the_hacmp_cluster_dialog
* Node Name [mycluster_node1]
Communication Path to Node []
HACMPイーサネット・ハートビート・ネットワークを作成します。HACMP構成には、ネットワーク定義が必要です。ネットワークでIPアドレスが引き継がれるように「No」を選択します。これらのネットワークはOracle Clusterwareによって使用されるためです。
2つ以上のネットワーク定義を作成します。1つは、Oracleのパブリック・インタフェース用、もう1つはOracleのプライベート(クラスタ・インターコネクト)・ネットワーク用です。必要に応じて、さらにイーサネット・ハートビート・ネットワークを追加できます。
次に例を示します。
# smitty cm_add_a_network_to_the_hacmp_cluster_select - select ether network * Network Name [my_network_name] * Network Type ether * Netmask [my.network.netmask.here] * Enable IP Address Takeover via IP Aliases [No] IP Address Offset for Heart beating over IP Aliases []
前述の手順で追加したネットワークごとに、そのネットワークに関連付けられた各Oracle ClusterwareノードのすべてのIP名(各Oracle Clusterwareノードのパブリック、プライベートおよびVIP名)を定義します。次に例を示します。
# smitty cm_add_communication_interfaces_devices.select - select: Add Pre-defined Communication Interfaces and Devices / Communication Interfaces / desired network * IP Label/Address [node_ip_address] * Network Type ether * Network Name some_network_name * Node Name [my_node_name] Network Interface []
拡張コンカレント・ボリューム・グループのリソースに対して、次のオプションを使用してHACMPリソース・グループを作成します。
# smitty config_resource_group.dialog.custom * Resource Group Name [my_resource_group_name] * Participating Nodes (Default Node Priority) [mynode1,mynode2,mynode3] Startup Policy Online On All Available Nodes Fallover Policy Bring Offline (On Error Node Only) Fallback Policy Never Fallback
コマンド(smitty mkvg
)またはコマンドラインを使用して、AIXの拡張コンカレント・ボリューム・グループ(Big VGまたはScalable VG)を作成します。ボリューム・グループには、各投票ディスク用に1つ以上のハード・ディスクが含まれている必要があります。3つ以上の投票ディスクを構成する必要があります。
次の例のdefaultは、デフォルトの応答をそのまま使用することを示しています。
# smitty _mksvg VOLUME GROUP name [my_vg_name] PP SIZE in MB * PHYSICAL VOLUME names [mydisk1,mydisk2,mydisk3] Force the creation of a volume group? no Activate volume group AUTOMATICALLY no at system restart? Volume Group MAJOR NUMBER [] Create VG Concurrent Capable? enhanced concurrent Max PPs per VG in kilobytes default Max Logical Volumes default
「Change/Show Resources for a Resource Group (standard)」で、前述の手順で追加したリソース・グループに対するコンカレント・ボリューム・グループを追加します。
次に例を示します。
# smitty cm_change_show_resources_std_resource_group_menu_dmn.select - select_resource_group_from_step_6 Resource Group Name shared_storage Participating Nodes (Default Node Priority) mynode1,mynode2,mynode3 Startup Policy Online On All Available Nodes Fallover Policy Bring Offline (On Error Node Only) Fallback Policy Never Fallback Concurrent Volume Groups [enter_VG_from_step_7] Use forced varyon of volume groups, if necessary false Application Servers []
次のコマンドを使用して、Oracle Clusterwareの投票ディスクごとに1つのMNDHBネットワークが定義されていることを確認します。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。MNDHBネットワークと投票ディスクは、HACMPが管理する拡張コンカレント論理ボリュームの共有論理ボリュームに、拡張コンカレント・リソースとして存在します。投票ディスクの論理ボリューム(LV)を配置するために手順6で作成したボリューム・グループにあるハード・ディスクごとにMNDHB論理ボリュームを作成します。
# smitty cl_add_mndhb_lv - select_resource_group_defined_in_step_6 * Physical Volume name enter F4, then select a hard disk Logical Volume Name [] Logical Volume Label [] Volume Group name ccvg Resource Group Name shared_storage Network Name [n]
注意: Oracle Clusterwareの投票ディスクに使用する論理ボリュームを定義する際は、同じディスクに定義する必要があります(各ディスクに1つ)。このMNDHB論理ボリュームの手順と同様です。 |
拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成します。次に例を示します。
# smitty cl_set_mndhb_response
- select_the_VG_created_in_step_7
On loss of access Halt the node
Optional notification method []
Volume Group ccvg
HACMP構成を確認し、同期させます。次に例を示します。
# smitty cm_initialization_and_standard_config_menu_dmn - select "Verify and Synchronize HACMP Configuration"
「Would you like to import shared VG: ccvg, in resource group my_resource_group onto node: mynode to node: racha702 [Yes / No]:」というプロンプトが表示されたら「Yes」と入力します。
/usr/es/sbin/cluster/etc/rhosts
ファイルにHACMPクラスタ・ノードのIP名を追加します。
すべてのデータベースをバックアップした後、Oracle Cluster Registry(OCR)をバックアップします。
すべてのノードですべてのOracle RACデータベース、すべてのノード・アプリケーションおよびOracle Clusterwareを停止します。
次のコマンドを入力し、ノードを再起動したときにOracle Clusterwareを無効にします。
# crsctl disable crs
すべてのノードでHACMPを停止します。
HACMP APAR IZ01809をインストールします。APARに添付されているREADMEの指示に従います。
既存の投票ディスク論理ボリュームが別々のハード・ディスクにあり、かつこれらの各ディスクに十分な領域(MNDHB論理ボリューム用に256MB以上)があるかどうかを確認します。ある場合は、各ハード・ディスクにMNDHB論理ボリュームを作成します。ない場合は、次のコマンドを使用して、別々のハード・ディスクにMNDHB論理ボリュームと投票ディスクを新しく作成します。イタリック体の部分は、ご使用のシステムに合わせて適切に読み換えてください。
# smitty cl_add_mndhb_lv - Select_resource_group * Physical Volume name Enter F4, then select disk for the MNDHB and Voting Disk pair Logical Volume Name [] Logical Volume Label [] Volume Group name ccvg Resource Group Name shared_storage Network Name [net_diskhbmulti_01]
HACMP構成を確認し、同期させます。
すべてのノードでHACMPを起動します。
手順5で投票ディスク用に論理ボリュームを新しく追加した場合は、既存の投票ディスクを新しいディスクに置き換えます。
次のコマンドを入力して、Oracle Clusterwareを再度有効にします。
# crsctl enable crs
すべてのノードのOracle Clusterwareを起動し、すべてのリソースが適切に起動することを確認します。
注意: Oracle ClusterwareにRAW論理ボリュームを使用するには、すべてのクラスタ・ノードにHACMPをインストールおよび構成する必要があります。 |
この項では、Oracle Clusterwareおよびデータベース・ファイル記憶域用にRAW論理ボリュームを構成する方法について説明します。この項では、両方のファイル・タイプに必要な論理ボリュームを含む新しいボリューム・グループを作成する手順を説明します。
続行する前に、今回のリリースのOracle RACでボリューム・グループを使用する場合の重要な情報が含まれている次のガイドラインを確認してください。
Oracle Clusterwareには、コンカレント対応のボリューム・グループを使用する必要があります。
Oracle Clusterwareファイルには、560MB未満のディスク領域(外部冗長を使用)が必要です。ボリューム・グループのディスク領域を効率的に使用するには、Oracle Clusterwareファイルおよびデータベース・ファイルの両方で、論理ボリュームに同じボリューム・グループを使用することをお薦めします。
RAW論理ボリュームを使用する既存のOracle9iリリース2のOracle RACインストールをアップグレードする場合は、OCR用の既存のSRVM構成リポジトリ論理ボリュームを使用し、同じボリューム・グループにOracle Clusterware投票ディスク用の新しい論理ボリュームを作成できます。ただし、Oracle Clusterwareをインストールする前に、このボリューム・グループをアクティブ化するHACMPのコンカレント・リソース・グループからこのボリューム・グループを削除しておく必要があります。
関連項目: コンカレント・リソース・グループからのボリューム・グループの削除については、HACMPのドキュメントを参照してください。 |
注意: データベースをアップグレードする場合は、SYSAUX表領域用に新しい論理ボリュームも作成する必要があります。Oracle Clusterware投票ディスクおよびSYSAUX論理ボリュームの要件の詳細は、第6.2.8項「新しいOracle Clusterwareボリューム・グループへのRAW論理ボリュームの構成」を参照してください。 |
データベース・ファイルのみを含む(Oracle Clusterwareファイルは含まない)新しいボリューム・グループまたは既存のボリューム・グループをアクティブ化するには、HACMPのコンカレント・リソース・グループを使用する必要があります。
関連項目: 新規または既存のコンカレント・リソース・グループへのボリューム・グループの追加については、HACMPのドキュメントを参照してください。 |
Oracle Clusterwareに使用するすべてのボリューム・グループは、インストールを開始する前に、コンカレント・モードでアクティブ化する必要があります。
この項では、基本的なボリューム・グループとボリュームを作成する手順について説明します。ミラー化を使用するなど、より複雑なボリュームを構成する場合は、この項とともにHACMPのドキュメントも参照してください。
新しいOracle Clusterwareボリューム・グループに必要なRAW論理ボリュームを作成するには、次の手順を実行します。
必要に応じて、コマンドsmit mklv
を使用し、RAW論理ボリュームを作成することもできます。
次の例は、物理パーティション・サイズが114MB(1792/7 = 256)の場合に、SYSAUX表領域用の論理ボリュームをocr
ボリューム・グループに作成するために使用するコマンドを示しています。
# /usr/sbin/mklv -y test_sysaux_raw_1792m -T O -w n -s n -r n ocr 7
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
注意: Oracle Cluster Registryに関連付けられるデバイス・ファイルは、root が所有する必要があります。その他のすべてのデバイス・ファイルは、Oracleソフトウェア所有者ユーザー(oracle )が所有する必要があります。 |
# chown oracle:dba /dev/rora_vote_raw_280m # chmod 660 /dev/rora_vote_raw_280m # chown root:oinstall /dev/rora_ocr_raw_280m # chmod 640 /dev/rora_ocr_raw_280m
Oracleデータベース・ファイル用のボリューム・グループを作成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。
# /usr/sbin/lspv
このコマンドの出力結果は、次のようになります。
hdisk0 0000078752249812 rootvg hdisk1 none none hdisk4 00034b6fd4ac1d71 ccvg1
このコマンドは、各ディスクについて次の内容を示します。
ディスク・デバイス名
16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone
ディスクが属しているボリューム・グループまたはnone
使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。
ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。
# ls -la /dev | more
このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。
crw-rw---- 1 root system 45, 0 Jul 19 11:56 vg1
この例では、45はvg1
ボリューム・グループ・デバイスのメジャー番号です。
クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。
次のコマンドを入力するか、またはSMIT(smit mkvg
)を使用して、ボリューム・グループを作成します。
# /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \ -C PhysicalVolumes
次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvg
のマニュアル・ページを参照してください。
コマンド・オプション | SMITフィールド | サンプル値および説明 |
---|---|---|
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。 |
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。 |
-B |
Create a big VG format Volume Group | ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
-s PPsize
|
Physical partition SIZE in megabytes |
32データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB * 1016)のディスクを含めることができます。 |
-V Majornum
|
Volume Group MAJOR NUMBER |
46手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。 |
-n |
Activate volume group AUTOMATICALLY at system restart | ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。
注意: SMITを使用している場合、このフィールドは「no」を選択します。 |
-C |
Create VG Concurrent Capable | コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
PhysicalVolumes
|
PHYSICAL VOLUME names |
hdisk3 hdisk4ボリューム・グループに追加するディスクのデバイス名を指定します。 |
次のコマンドを入力して、作成したボリューム・グループを有効にします。
# /usr/sbin/varyonvg VGname
Oracle Clusterwareファイル用のボリューム・グループを作成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。
# /usr/sbin/lspv
このコマンドの出力結果は、次のようになります。
hdisk0 0000078752249812 rootvg hdisk1 none none hdisk4 00034b6fd4ac1d71 ccvg1
このコマンドは、各ディスクについて次の内容を示します。
ディスク・デバイス名
16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone
ディスクが属しているボリューム・グループまたはnone
使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。
ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。
# ls -la /dev | more
このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。
crw-rw---- 1 root system 45, 0 Jul 19 11:56 vg1
この例では、45はvg1
ボリューム・グループ・デバイスのメジャー番号です。
クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。
次のコマンドを入力するか、またはSMIT(smit mkvg
)を使用して、ボリューム・グループを作成します。
# /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \ -C PhysicalVolumes
次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvg
のマニュアル・ページを参照してください。
コマンド・オプション | SMITフィールド | サンプル値および説明 |
---|---|---|
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。 |
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。 |
-B |
Create a big VG format Volume Group | ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
-s PPsize
|
Physical partition SIZE in megabytes |
32データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB * 1016)のディスクを含めることができます。 |
-V Majornum
|
Volume Group MAJOR NUMBER |
46手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。 |
-n |
Activate volume group AUTOMATICALLY at system restart | ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。
注意: SMITを使用している場合、このフィールドは「no」を選択します。 |
-C |
Create VG Concurrent Capable | コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
PhysicalVolumes
|
PHYSICAL VOLUME names |
hdisk3 hdisk4ボリューム・グループに追加するディスクのデバイス名を指定します。 |
次のコマンドを入力して、作成したボリューム・グループを有効にします。
# /usr/sbin/varyonvg VGname
ボリューム・グループをクラスタ内のすべてのノードで使用可能にするには、次の手順に従って、各ノードにインポートする必要があります。
物理ボリューム名は他のノードでは異なる場合があるため、次のコマンドを入力して、ボリューム・グループが使用する物理ボリュームのPVIDを確認します。
# /usr/sbin/lspv
ボリューム・グループが使用する物理デバイスのPVIDを書き留めます。
ボリューム・グループを作成したノードで次のコマンドを入力し、使用するボリューム・グループを無効にします。
# /usr/sbin/varyoffvg VGname
各クラスタ・ノードで、次の手順を実行します。
次のコマンドを入力して、前述の手順で書き留めたPVIDに関連付けられている物理ボリューム名を確認します。
# /usr/sbin/lspv
クラスタの各ノードで、次のコマンドを入力し、ボリューム・グループの定義をインポートします。
# /usr/sbin/importvg -y VGname -V MajorNumber PhysicalVolume
この例では、MajorNumber
はボリューム・グループのデバイスのメジャー番号、PhysicalVolume
はボリューム・グループにある物理ボリュームのうちの1つの名前です。
たとえば、hdisk3
およびhdisk4
物理ボリューム上のデバイスのメジャー番号45を持つoracle_vg1
ボリューム・グループの定義をインポートする場合は、次のコマンドを入力します。
# /usr/sbin/importvg -y oracle_vg1 -V 45 hdisk3
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rora_vote_raw_280m # chmod 660 /dev/rora_vote_raw_280m # chown root:oinstall /dev/rora_ocr_raw_280m # chmod 640 /dev/rora_ocr_raw_280m
次のコマンドを入力して、ノードの起動時に、オペレーティング・システムによってボリューム・グループがアクティブ化されないことを確認します。
# /usr/sbin/chvg -a n VGname
オペレーティング・システムおよびDirect NFSクライアントを構成するには、次の項を参照してください。
GridホームまたはOracle RACホームにNFSを使用している場合、次を有効にするために記憶域にNFSマウントを設定する必要があります。
記憶域にマウントされるクライアントのroot
ユーザーは、(匿名ユーザーとしてマップされているのではなく、)ファイル・サーバーのroot
ユーザーとみなすことができます。
クライアント・サーバーのroot
ユーザーは、ファイル・サーバーのroot
が所有しているNFSファイル・システムにファイルを作成できます。
NFSでは、サーバー側でno_root_squash
を有効にすることで、記憶域に書込みを行うクライアントにroot
アクセス権を取得できます。たとえば、ドメインmycluster.example.com
のノードnode1、node2、node3について、パス/vol/grid
のOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/exports
ファイルに追加します。
/vol/grid/ node1.mycluster.example.com(rw,no_root_squash) node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com (rw,no_root_squash)
ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにroot
アクセス権を付与します。
次に例を示します。
/vol/grid/ *.mycluster.example.com(rw,no_root_squash)
この構文を使用すると、NFSサーバーを再構成する必要なくノードの追加や削除を行えるので、セキュアなDNSまたはドメインを使用し、そのドメインを利用するクラスタ・メンバー・ノードにroot
アクセス権を付与することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。
注意: ドメイン単位でroot アクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、no_root_squash の使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。 |
/etc/exports
を変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。
# /usr/sbin/exportfs -avr
Oracle Grid Infrastructureクラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsize
およびwsize
の値を32768に設定する必要があります。
バイナリのNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,tcp,nfsvers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0
NFSマウント上にOracle Grid Infrastructureのバイナリがある場合は、nosuid
オプションを使用しないでください。
Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0
ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstab
ファイルを更新します。たとえば、プラットフォームがx86-64であり、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstab
ファイルを次のエントリで更新します。
nfs_server:/vol/grid /u02/oracle/cwfiles nfs \ rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0
Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。
nfs_server:/vol/bin /u02/oracle/grid nfs \
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0,suid 0 0
関連項目: マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。
|
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
Oracle RACファイルのNFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。NFSファイル・システムをマウントするときは、NASベンダーがデバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。推奨されるマウント・ポイント・オプションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。
各ノードの/etc/fstab
ファイルを次のエントリで更新します。
nfs_server:/vol/DATA/oradata /u02/oradata nfs\
rw,bg,hard,nointr,tcp,nfsvers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0
必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。これらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。これらのマウント・オプションの使用に失敗すると、ファイル・アクセス・エラーが生成される可能性があります。使用するプラットフォームでサポートされている個々のオプションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
デフォルトでネットワークのバッファ・サイズは、TCPでは1 MB、UDPでは2 MBに設定されます。TCPバッファ・サイズはファイル転送に制限を設定することが可能で、これはDirect NFSクライアント・ユーザーのパフォーマンスにマイナスの影響を与える場合があります。
現在のTCPバッファ・サイズをチェックするには、次のコマンドを入力します。
# /usr/sbin/no -o sb_max
サーバーのリンク速度に基づいて値を設定することをお薦めします。次に例を示します。
# /usr/sbin/no -p -o sb_max=524288
TCPの変更を永続的なものにするには、/etc/rc.net
ファイルに次の行を追加します。
/usr/sbin/no -o sb_max=524288
Direct NFSクライアントを有効にするには、次の手順を実行します。
Direct NFSクライアントを使用してアクセスするNFSサーバーごとに、次の属性を使用してoranfstab
ファイルを作成します。
server: NFSサーバー名。
local: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパスであり、データベース・ホスト上でifconfig
コマンドを使用して表示できます。
path: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パスであり、NFSサーバー上でifconfig
コマンドを使用して表示できます。
export: NFSサーバーからエクスポートされたパス。
mount: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。
mnt_timeout: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600
)です。
nfs_version: Direct NFSクライアントが使用するNFSプロトコルのバージョンを指定します。設定可能な値は、NFSv3、NFSv4およびNFSv4.1です。デフォルトのバージョンはNFSv3です。NFSv4.xを選択する場合、oranfstab
でnfs_version
の値を構成する必要があります。
dontroute: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、そのメッセージがバインドされたIPアドレスを使用して送信するよう指定します。
management: Direct NFSクライアントを有効にして、SNMP問合せの管理インタフェースを使用します。SNMPがNFSサーバー上の別の管理インタフェースで実行されている場合は、このパラメータを使用できます。デフォルト値は、serverパラメータ値です。
community: SNMP問合せで使用するコミュニティ文字列を指定します。デフォルト値はpublicです。
関連項目: 非同期I/Oの制限の詳細は、『Oracle Databaseパフォーマンス・チューニング・ガイド』を参照してください。 |
この後の例では、oranfstab
のNFSサーバー・エントリを3種類示しています。1つのoranfstab
に、複数のNFSサーバー・エントリを含めることができます。
例6-1 ローカルおよびパスのNFSサーバー・エントリを使用
次の例では、ローカルとパスの両方を使用しています。localとpathは異なるサブネットにあるため、dontroute
を指定する必要はありません。
server: MyDataServer1 local: 192.0.2.0 path: 192.0.2.1 local: 192.0.100.0 path: 192.0.100.1 export: /vol/oradata1 mount: /mnt/oradata1 nfs_version: nfsv3 community: private
例6-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)
次の例では、同一サブネット内のローカルおよびパスを示しています。ここではdontroute
が指定されています。
server: MyDataServer2 local: 192.0.2.0 path: 192.0.2.128 local: 192.0.2.1 path: 192.0.2.129 dontroute export: /vol/oradata2 mount: /mnt/oradata2 nfs_version: nfsv4 management: 192.0.10.128
例6-3 IPアドレスのかわりに名前を使用(複数のエクスポート)
server: MyDataServer3 local: LocalPath1 path: NfsPath1 local: LocalPath2 path: NfsPath2 local: LocalPath3 path: NfsPath3 local: LocalPath4 path: NfsPath4 dontroute export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5 export: /vol/oradata6 mount: /mnt/oradata6
デフォルトでは、Direct NFSクライアントは有効な状態でインストールされます。ただし、Direct NFSクライアントが無効な場合に有効にするには、各ノードで次の手順を実行します。共有Gridホームをクラスタに使用する場合は、共有Gridホームで次の手順を完了します。
Oracle Grid Infrastructureインストール所有者としてログインします。
Grid_home
/rdbms/lib
ディレクトリに移動します。
次のコマンドを入力します。
$ make -f ins_rdbms.mk dnfs_on
Direct NFSクライアントでは、NFSサーバー用のoranfstab
ファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。
gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。
gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。
gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。
注意: シングル・インスタンスにはv$ ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ ビューを使用します。 |
Direct NFSクライアントでハイブリッド列圧縮(HCC)を有効にする手順:
ZFSストレージ・サーバーでSNMPが有効であることを確認します。次に例を示します。
$ snmpinfo -v1 -c public server_name
.1.3.6.1.4.1.42.2.225.1.4.2.0
enterprises.42.2.225.1.4.2.0 = 53:75:6e:20:53:74:6f:72:61:67:65:20:37:34:31:30
前述の一連のバイト53:75:6e:....:31:30は、Sun Storage 7410のASCII文字表現です。
NFSサーバー以外のインタフェースでSNMPが有効な場合は、management
パラメータを使用してoranfstab
を構成します。
public以外のコミュニティ文字列を使用してSNMPが構成されている場合は、communityパラメータを使用してoranfstab
ファイルを構成します。
libnetsnmp.so
がインストールされていることを確認します。libnetsnmp.so
がインストールされていない場合は、次のURLからダウンロードしてインストールします。
https://oss.oracle.com/netsnmp/
注意: IBM AIX on POWER Systems (64-Bit)では、HCCはブロック・ベースのデバイスではサポートされていません。 |
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。
注意: NFSまたはGPFS記憶域の場合、別々のファイル・システムにあるOracle ClusterwareファイルをOracleベース・ディレクトリに格納する場合にのみ、この手順を実行する必要があります。 |
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、grid
かoracle
)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle
、Oracle Clusterwareファイルの記憶域がcluster
の場合は、次のようになります。
# mkdir /mount_point/cluster # chown oracle:oinstall /mount_point/cluster # chmod 775 /mount_point/cluster
注意: インストール後、OCRファイルのインストール・パスにあるディレクトリはroot が所有し、root 以外のアカウントでは書込みできないようにする必要があります。 |
マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid Infrastructure用のOCFS2またはNFSの構成は完了です。
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -h
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、ファイル・システムを特定します。
ファイル・タイプ | ファイル・システムの要件 |
---|---|
データベース・ファイル | 次のいずれかを選択します。
|
リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle
)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(高速リカバリ領域):
# mkdir /mount_point/fast_recovery_area # chown oracle:oinstall /mount_point/fast_recovery_area # chmod 775 /mount_point/fast_recovery_area
oinstall
グループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のNFSの構成は完了です。
Direct NFSクライアントを無効にするには、次の手順を実行します。
Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします。Grid_home
はOracle Grid Infrastructureホームへのパスです。
$ cd Grid_home/rdbms/lib
$ make -f ins_rdbms.mk dnfs_off
クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。
oranfstab
ファイルを削除します。
注意: Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。 |
次の項で、Oracle Automatic Storage Managementの記憶域の構成について説明します。
この項では、Oracle Automatic Storage Management (Oracle ASM)で使用する記憶域の構成方法について説明します。
Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ファイル)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
注意:
|
Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。
Oracle ASMディスク・グループに選択した冗長レベルによって、Oracle ASMがディスク・グループ内のファイルをミラー化する方法および必要となるディスク数と空きディスク領域が決まります。投票ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ファイル)があるディスク・グループは、投票ファイルは定数障害グループに格納されているので、他のディスク・グループよりも障害グループの最小数が多くなります。
定数障害グループは、Oracle Clusterware投票ファイルを格納する特殊なタイプの障害グループです。定数障害グループは、指定した障害グループの定数が使用可能であることを確認するために使用されます。Oracle ASMがOracle Clusterwareのファイルを含むディスク・グループをマウントすると、1つ以上の障害グループが失われたときにディスク・グループをマウントすることが可能かどうか決定するために定数障害グループが使用されます。定数障害グループ内のディスクには、ユーザー・データは含まれないので、定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。
冗長レベルは、次のとおりです。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
標準冗長ディスク・グループでは、Oracle Clusterwareファイル用に最小で3台のディスク・デバイスを必要とし(3つのディスクのうちの2つは障害グループに使用され、3つのディスクすべては定数障害グループで使用されます)、3つの投票ファイルと1つのOCR(プライマリとセカンダリ・コピーに1つずつ)が提供されます。標準冗長のクラスタは、障害グループを1つ失っても存続できます。
ほとんどの使用環境では、標準冗長を選択することをお薦めします。
高冗長
高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
高冗長ディスク・グループでは、Oracle Clusterwareファイル用に最小で5台のディスク・デバイスを必要とし(5つのディスクのうちの3つは障害グループに使用され、5つのディスクすべては定数障害グループで使用されます)、5つの投票ファイルと1つのOCR(プライマリ・コピーが1つとセカンダリ・コピーが2つ)が提供されます。高冗長のクラスタは、障害グループを2つ失っても存続できます。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
注意: ディスク・グループの作成後に、ディスク・グループの冗長レベルを変更することはできません。 |
Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
表6-4と表6-5を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します。投票ファイルは別のディスク・グループにあるものとします。
表6-4 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計
冗長レベル | ディスクの最小台数 | Oracle Cluster Registry(OCR)ファイル | 投票ファイル | 合計 | グリッド・インフラストラクチャ管理リポジトリを伴う記憶域の合計 |
---|---|---|---|---|---|
外部 |
1 |
400MB |
300MB |
700MB |
4以下のノードのクラスタには5.9GB以上(5.2GB + 400MB + 300MB)。 5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、6.9GB以上を割り当てる。 (5.2GB +2*(500MB) +400MB + 300MB)。 |
標準 |
3 |
障害グループごとに400MB以上または800MB |
900MB |
1.7GB脚注 1 |
4ノード以下のクラスタに12.1GB以上(2 * 5.2GB + 2 * 400MB + 3 * 300MB)。 5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、14.1GB以上を割り当てる。 (2 * (5.2GB + 2 * (500MB)) + (2 * 400MB) + (3 * 300MB))。 |
高 |
5 |
障害グループごとに400MB以上または1.2GB |
1.5GB |
2.7GB |
4ノード以下のクラスタに18.3GB以上(3 * 5.2GB + 3 * 400MB + 5 * 300MB)。 5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、21.3GB以上を割り当てる。 (3 * (5.2GB + 2 * (500MB)) + (3 * 400MB) + (5 * 300MB))。 |
脚注 1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。
注意: 投票ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ファイル)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。インストール中に、OCRおよび投票ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。 |
割当て単位サイズを決定します。すべてのOracle ASMディスクは割当て単位(AU)に分割されます。割当て単位は、ディスク・グループ内の割当ての基本単位です。特定のディスク・グループ互換レベルに応じて、AUサイズの値に1、2、4、8、16、32、64MBを選択できます。デフォルト値は1MBに設定されています。
Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ファイルおよびOracle ASMメタデータのディスク領域の要件(単位: MB)を計算します。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)
ausize: メタデータのAUサイズ(MB単位)
nodes: クラスタ内のノード数
clients - 各ノードのデータベース・インスタンス数
disks - ディスク・グループ内のディスク数
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、追加領域が必要になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
Oracle ASMでのOracle Clusterwareファイルの高可用性を確保するには、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。各ディスクには1GB以上の容量を確保して、容量に余裕を持ってOracle Clusterwareファイルを作成できるようにする必要があります。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd 、またはSQLコマンドを使用して、カスタム障害グループを定義します。
カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 データベース・ファイルと、投票ファイルを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。 投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。各ディスク・グループのデバイスは、別々の物理ディスク上に存在する必要があります。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。
関連項目: 割当て単位の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。
そのファイルを作成するには、次の手順を実行します。
必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。
この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。
ユーザーをroot
に切り替えます。
マウント・ポイント・ディレクトリをローカル・システムに作成します。次に例を示します。
# mkdir -p /mnt/asm
システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/vfstab
にファイル・システムのエントリを追加します。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、man
ページを参照してください。推奨されるマウント・オプションの詳細は、「オペレーティング・システムのNFSマウントおよびバッファ・サイズ・パラメータの構成」を参照してください。
次のコマンドを入力して、NFSファイル・システムをローカル・システムにマウントします。
# mount /mnt/asm
作成するディスク・グループの名前を選択します。たとえば、sales1
とします。
NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。次に例を示します。
# mkdir /mnt/asm/nfsdg
次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。
# dd if=/dev/zero of=/mnt/asm/nfsdg/disk1 bs=1024k count=1000
この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。
作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid
、OSASMグループはasmadmin
です。
# chown -R grid:asmadmin /mnt/asm # chmod -R 660 /mnt/asm
Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。
/mnt/asm/sales1/
注意: インストール中に、Oracle ASMにマウントされたディスク・パスがデフォルトのデータベース記憶域の候補ディスクとしてリストされます。 |
既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
注意: 既存ディスク・グループを管理するOracle ASMインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
Oracle ASMディスク・グループがすでに存在するかどうか、またはディスク・グループのディスク領域が十分にあるかどうかを判断するには、Oracle Enterprise Manager Cloud ControlまたはOracle ASMコマンドライン・ツール(asmcmd
)を次のとおりに使用します。
Oracle ASMインスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/asmcmd ASMCMD> startup
次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
ASMCMD> lsdb
または
$ORACLE_HOME/bin/asmcmd -p lsdg
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
Oracle Automatic Storage Management (Oracle ASM)ディスク・グループとして使用するRAWディスクを構成できます。Oracle ASMをRAWディスクで使用するには、データ・ファイル用に十分なパーティションを作成した後、そのパーティションをRAWディスクにバインドする必要があります。データ・ファイル用に作成するRAWディスク名のリストを作成し、そのリストをデータベースのインストール時に使用できるようにします。
次の手順で、物理ボリュームID(PVID)をRAWディスク用に設定するように指示されます。構成の問題を回避するために、ご使用のシステムでPVIDを構成していない場合でも、この手順全体を完了することをお薦めします。
注意: ストレージにHitachi HDLM(dmlf デバイス)を使用する場合、ASMインスタンスは自動的には物理ディスクを検出せず、論理ボリューム・マネージャ(LVM)ディスクのみを検出します。これは、物理ディスクをオープンできるのはrootで実行しているプログラムのみであるためです。
物理ディスクのパスには、次のようなパス名があります。 /dev/rdlmfdrv8 /dev/rdlmfdrv9 |
ディスクを構成するには、次の手順を実行します。
必要に応じて、ディスク・グループに使用するディスクを設置し、システムを再起動します。
Oracle ASMディスク・グループに含めるディスクを指定または作成します。任意のノードで、root
ユーザーとして次のコマンドを入力し、使用するディスク・デバイスのデバイス名を確認します。
# /usr/sbin/lspv | grep -i none
このコマンドによって、ボリューム・グループに構成されていないディスク・デバイスごとに、次のような情報が表示されます。
hdisk17 0009005fb9c23648 None
この例では、hdisk17
はディスクのデバイス名、0009005fb9c23648
は物理ボリュームID(PVID)です。
使用するディスク・デバイスにPVIDがない場合は、次のコマンドを入力してディスク・デバイスに割り当てます。n
はhdisk
の数です。
# chdev -l hdiskn -a pv=yes
注意: 既存のPVIDがある場合は、chdev によって上書きされます。以前のPVIDに依存するアプリケーションがある場合、それらは失敗することに注意してください。 |
他のそれぞれのノードで、次のコマンドを入力し、そのノードの各PVIDに関連付けられているデバイス名を確認します。
# /usr/sbin/lspv | grep -i "0009005fb9c23648"
このコマンドの出力結果は、次のようになります。
hdisk18 0009005fb9c23648 None
この例では、ディスク・デバイスに関連付けられているデバイス名(hdisk18
)は、前述のノードのものとは異なります。
デバイス名がすべてのノードで同じである場合は、すべてのノードで次のコマンドを入力し、ディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。grid
は、Oracle Grid Infrastructureインストールの所有者、asmadmin
はOSASMグループです。
# chown grid:asmadmin /dev/rhdiskn # chmod 660 /dev/rhdiskn
複数のノードからディスク・デバイスに同時アクセスできるようにするには、ディスクで使用する予約属性のタイプに応じて、適切なObject Data Manager(ODM)属性を設定する必要があります。次の項では、論理名hdiskを使用してこのタスクを実行する方法について説明します。論理デバイス名については、ご使用のオペレーティング・システムのマニュアルを参照してください。
ディスクで使用する予約設定を確認するには、次のコマンドを入力します。nはhdiskのデバイス番号です。
# lsattr -E -l hdiskn | grep reserve_
このコマンドの結果として、reserve_lock
設定またはreserve_policy
設定が返されます。属性がreserve_lock
の場合は、設定がreserve_lock = no
であることを確認します。属性がreserve_policy
の場合は、設定がreserve_policy = no_reserve
であることを確認します。
必要に応じて、chdev
コマンドで次の構文を使用して設定を変更します。nはhdiskのデバイス番号です。
chdev -l hdiskn -a [ reserve_lock=no | reserve_policy=no_reserve ]
たとえば、デバイスhdisk4
の設定をreserve_lock=yes
からreserve_lock=no
に変更するには、次のコマンドを入力します。
# chdev -l hdisk4 -a reserve_lock=no
すべてのディスク・デバイスで設定が適切であることを確認するには、次のコマンドを入力します。
# lsattr -El hdiskn | grep reserve
任意のノードで次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。
# /usr/sbin/chdev -l hdiskn -a pv=clear
Oracle Clusterwareをインストールする際に、OCRおよびOracle Clusterware投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。
/dev/rhdisk10
次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle Automatic Storage Managementの記憶域の構成について説明します。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
必要な場合は、Oracle Automatic Storage Managementディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle Automatic Storage Managementディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle Automatic Storage Managementは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、これを使用することはお薦めしません。共有されていない論理ボリュームはOracle RACではサポートされません。論理ボリュームをOracle RACデータベースに使用する場合は、クラスタ対応の論理ボリューム・マネージャによって作成された共有同時実行RAW論理ボリュームを使用する必要があります。
Oracle ASMストレージ・クライアントには、ノードで実行中のOracle ASMがなく、他のクライアント・クラスタのOracle ASM記憶域サービスを使用します。
Oracle ASMの資格証明ファイルを作成するには、ストレージ・サーバー上のGrid_home
/bin
ディレクトリから、メンバー・ノードの1つで次のコマンドを実行します(credential_fileが、作成するOracle ASM資格証明ファイルの名前とパスです)。
Grid_home/bin/asmcmd mkcc client_cluster_name credential_file
次に例を示します。
Grid_home/bin/asmcmd mkcc clientcluster1 /home/grid/clientcluster1_credentials.xml
クライアント・クラスタのインストールを実行するクライアント・クラスタ・ノード上の安全なパスに、Oracle ASM資格証明ファイルをコピーします。Oracleインストール・ユーザーには、このファイルへのアクセス権限が必要です。他のユーザーにOracle ASM資格証明ファイルへのアクセス権限を付与しないことをお薦めします。インストールの実行中、ファイルへのパスを入力するように求めるメッセージが表示されます。
注意:
|
Oracle ACFSは、Oracle Grid Infrastructure (Oracle ClusterwareおよびOracle Automatic Storage Management)12cリリース1 (12.1)のインストールの一部として、インストールされます。Oracle ACFSをデータベース・ホーム用に構成したり、ASMCAを使用して汎用ファイルシステムとしてACFSを構成することができます。
注意: Oracle ACFSは、AIX 6.1(PPC64)に対するAIX 6.1 TL4 SP2以上の更新でのみサポートされています。Oracle Grid Infrastructure for a Cluster 11gリリース2 (11.2.0.3)から、Oracle ACFSは、AIX 7.1のすべてのテクニカル・レベルでサポートされます。 |
Oracle RACデータベース用にOracle Databaseホーム用のOracle ACFSを構成するには、次の手順を実行します。
クラスタ用Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)をインストールします。
Oracle Grid Infrastructureホームに移動します。次に例を示します。
$ cd /u01/app/12.1.0/grid
Oracle Grid Infrastructureインストール所有者が、使用するストレージ・マウント・ポイントに対する読込みおよび書込み権限を持っていることを確認します。たとえば、マウント・ポイント/u02/acfsmounts/
を使用する場合は次のようになります。
$ ls -l /u02/acfsmounts
Gridインストールの所有者として、Oracle ASM Configuration Assistantを起動します。次に例を示します。
./asmca
「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。「ASMクラスタ・ファイルシステム」タブをクリックします。
「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択します。
「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。
データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。この名前は、社内で一意である必要があります。たとえば、dbase_01
とします。
データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。たとえば、/u02/acfsmounts/dbase_01
とします。
後で参照するために、このマウント・ポイントを書き留めます。
データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。
データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を入力します。たとえば、oracle
1とします。
データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを入力します。このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与されます。たとえば、dba1
とします。
入力が完了したら、「OK」をクリックします。
特権ユーザー(root
)として、Oracle ASM Configuration Assistantによって生成されたスクリプトを実行します。Oracle Clusterware環境では、Oracle Clusterwareによって管理されるリソースとしてACFSが登録されます。リソースとしてACFSを登録することによって、ACFSがOracle RACデータベース・ホームに使用される場合に、Oracle ClusterwareがACFSを適切な順序で自動的にマウントできるようになります。
Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイント」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01
)。
関連項目: Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home
/bin
にあるOracle Automatic Storage Management Configuration Assistant (ASMCA)を使用して、既存のOracle ASMインスタンスをOracle ASM 12cリリース1 (12.1)にアップグレードし、その後で障害グループ、Oracle ASMボリュームおよびOracle Automatic Storage Managementクラスタ・ファイル・システム(ACFS)を構成できます。
注意: 既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。 |
インストール時に、11.2より前のOracle ASMリリースからアップグレードする際に、Oracle ASMを使用することを選択し、ASMCAによって以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 12cリリース1 (12.1)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。次に、Oracle ASMボリュームを作成し、アップグレードしたOracle ASMを使用してOracle ACFSを作成することで、Oracle ACFSのデプロイメントを構成できます。
Oracle ASM 11gリリース2 (11.2.0.1)以上からアップグレードする場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。以前のリリースから現在のリリースまで、ASMCAがOracle ASMを個別にアップグレードすることはできません。
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1以上の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。その場合、すべてのノード上のOracle ASMは12cリリース1 (12.1)にアップグレードされます。