この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management (Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。
この章の内容は次のとおりです。
この項では、クラスタ用Oracle Grid Infrastructureに対して、およびOracle Grid Infrastructureで実行される機能に対してサポートされている記憶域オプションについて説明します。内容は次のとおりです。
関連項目: 動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
|
次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。
注意: OCFS2の詳細は、次のWebサイトを参照してください。
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有 OCFS2の動作保証と、その他のクラスタ・ファイル・システムのサポートについては、My Oracle Supportの「動作保証」ページを参照してください。 |
表7-1 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
記憶域オプション | OCRおよび投票ファイル | Oracle Clusterwareバイナリ | Oracle RACバイナリ | Oracle Databaseファイル | Oracleリカバリ・ファイル |
---|---|---|---|---|---|
Oracle Automatic Storage Management (Oracle ASM) 注意: ループバック・デバイスは、Oracle ASMでは使用できません。 |
可 |
不可 |
不可 |
可 |
可 |
Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS) |
不可 |
不可 |
Oracle Database 11gリリース2 (11.2)以上のハブ・ノードで実行されるOracle Databaseの場合は可。 リーフ・ノードで実行されるOracle Databaseの場合は不可。 |
可(Oracle Database 12cリリース1 (12.1)以上) |
可(Oracle Database 12cリリース1 (12.1)以上) |
ローカル・ファイル・システム |
不可 |
可 |
可 |
不可 |
不可 |
OCFS2脚注1 |
不可 |
不可 |
可 |
可 |
可 |
動作保証されているネットワーク接続ストレージ(NAS)ファイラ上のネットワーク・ファイル・システム(NFS) 注意: Direct NFSクライアントはOracle Clusterwareファイルをサポートしていません。 |
可 |
可 |
可 |
可 |
可 |
共有ディスク・パーティション(ブロック・デバイスまたはRAWデバイス) |
不可 |
不可 |
不可 |
不可 |
不可 |
脚注1 OCFS2の詳細は、この項の冒頭にあるOCFS2の注意事項を参照してください。
次のガイドラインに従って、記憶域オプションを選択します。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
RAWおよびブロック・デバイスの直接の使用はサポートされていません。rawまたはブロック・デバイスはOracle ASM下でのみ使用できます。
関連項目: 既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。 |
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ファイルの場所、および2つ以上のOracle Cluster Registryの場所を構成して、冗長性を確保する必要があります。
注意: IBM: Linux on System zでは、Oracle ACFSおよびOCFS2はサポートされていません。 |
この項では、Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)およびOracle Automatic Storage Management動的ボリューム・マネージャ(Oracle ADVM)について説明します。内容は次のとおりです。
Oracle ACFSによるOracle ASMテクノロジの拡張によって、単一インスタンスおよびクラスタ構成のどちらでも、すべてのアプリケーション・データがサポートされます。Oracle ADVMは、ボリューム管理サービスと、クライアントとの標準ディスク・デバイス・ドライバ・インタフェースを提供します。Oracle Automatic Storage Managementクラスタ・ファイルシステムは、Oracle Automatic Storage Management動的ボリューム・マネージャ・インタフェースを介してOracle ASMと通信します。
Oracle ACFSおよびOracle ADVMは、Oracle Linux、Red Hat Enterprise LinuxおよびSUSE Linux Enterprise Serverでサポートされます。表7-2に、Oracle ACFSおよびOracle ADVMがサポートされるリリース、プラットフォームおよびカーネルのバージョンを示します。Oracle ACFSとOracle ADVMがサポートされているプラットフォームおよび特定のリリースの最新の動作保証情報は、My Oracle Support Note 1369107.1を参照してください。
表7-2 Oracle ACFSおよびOracle ADVMがサポートされているプラットフォーム
プラットフォーム/オペレーティング・システム | カーネル |
---|---|
Oracle Linux 7 |
|
Oracle Linux 6 |
|
Oracle Linux 5 |
|
Red Hat Enterprise Linux 7 |
|
Red Hat Enterprise Linux 6 |
Red Hat Enterprise Linux 6 |
Red Hat Enterprise Linux 5 |
Red Hat Enterprise Linux 5 Update 3: 2.6.18カーネル |
SUSE Linux Enterprise Server 11。 |
SUSE Linux Enterprise Server 11 Service Pack 4 (SP4) SUSE Linux Enterprise Server 11 Service Pack 3 (SP3) SUSE Linux Enterprise Server 11 Service Pack 2 (SP2) |
注意: Oracle ACFSの強制モードでSecurity Enhanced Linux (SELinux)を使用する場合は、必ずSELinuxのデフォルト・コンテキストでOracle ACFSファイル・システムをマウントしてください。コンテキスト・マウント・オプションの詳細は、Linuxベンダーのマニュアルを参照してください。 |
関連項目:
|
注意: IBM: Linux on System zでは、Oracle ACFSはサポートされていません。 |
Oracle ACFSに関する次の一般的な制限事項とガイドラインに注意してください。
Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)は、汎用のファイル・システムです。このシステムにはOracle DatabaseバイナリおよびOracle Databaseファイルは配置できますが、Oracle ACFSにはOracle Clusterwareファイルを配置できません。
ポリシー管理型Oracle Flex Clusterデータベースの場合、Oracle ACFSはハブ・ノードで実行できますが、リーフ・ノードでは実行できない点に注意してください。このため、Oracle RACバイナリをリーフ・ノードのOracle ACFSに配置することができません。
Oracle ClusterwareのバイナリおよびファイルをOracle ACFSに格納することはできません。
Oracle Grid Infrastructure 12cリリース1 (12.1)から、クラスタ用にOracleデータ・ファイルをOracle ACFSファイル・システムに作成することがサポートされるようになりました。
Oracle Databaseのバイナリ、データ・ファイルおよび管理ファイル(トレース・ファイルなど)をOracle ACFSに格納することができます。
Oracle ACFSでは、Oracle Databaseデータ・ファイル、表領域ファイル、制御ファイルおよびREDOログによるレプリケーションまたは暗号化は、サポートされていません。
すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clusters(Oracle RAC)データベースに使用する記憶域オプションを選択する必要があります。
Oracle Clusterwareの投票ファイルは、クラスタ・ノードのステータスの監視に使用し、Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が含まれます。Oracle Cluster Registry(OCR)および投票ファイルは、Oracle ASMディスク・グループに格納できます。OCRファイルのバックアップをディスク・グループに格納することもできます。記憶域は共有される必要があり、構成されている投票ファイルの大半(過半数)が利用できないノードは再起動されます。
Standard EditionおよびStandard Edition 2 (SE2)のOracle RACインストールでは、データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。すべてのインストールについて、2つの以上のOracle ASMディスク・グループを作成することをお薦めします(Oracle Databaseデータ・ファイルおよびリカバリ・ファイル用にそれぞれ1つずつ)。Oracle Databaseディスク・グループおよびリカバリ・ファイル・ディスク・グループは別の障害グループに配置することをお薦めします。
Oracle ASMを使用しない場合は、データ・ファイルと高速リカバリ領域を、異なる場所にあるOracleホーム以外の共有記憶域に配置し、ハードウェアの障害による可用性の低下を防ぐことをお薦めします。
関連項目:
|
サポートされている記憶域のオプションには、次の追加のガイドラインを考慮してください。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmaps
がサポートされているバージョン1.4.1以上にアップグレードする必要があります。
Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 12cリリース1(12.1)がインストールされている。
クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ファイルの冗長性を確保する必要があります。
Oracle Grid Infrastructureのインストール中、1つのディスク・グループを作成できます。Oracle Grid Infrastructureをインストール後、Oracle Automatic Storage Management Configuration Assistant (ASMCA)、SQL*Plus、または自動ストレージ管理コマンドライン・ユーティリティ(ASMCMD)を使用してディスク・グループを追加作成できます。Oracle Database 11gリリース2 (11.2)以上のリリースでは、Oracle Database Configuration Assistant (DBCA)にOracle ASM用のディスク・グループを作成する機能がないことに注意してください。
Oracle Grid Infrastructureをインストールした後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ファイル用に同じディスク・グループを使用するか、または異なるディスク・グループを使用できます。Oracle RACのインストール前またはデータベースの作成前に、複数のディスク・グループを作成する場合は、次のいずれかを実行できます。
Oracle Clusterwareファイルとしてデータ・ファイルを同じディスク・グループに配置する。
データ・ファイルおよびリカバリ・ファイル用に同じOracle ASMディスク・グループを使用する。
ファイル・タイプごとに異なるディスク・グループを使用する。
記憶域用に1つのディスク・グループのみを作成した場合、OCRと投票ファイル、データベース・ファイルおよびリカバリ・ファイルは、1つのディスク・グループに配置されます。記憶域用に複数のディスク・グループを作成した場合は、ファイルは異なるディスク・グループに配置できます。
注意: 既存のディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行されている必要があります。 |
関連項目: ディスク・グループの作成については、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。いくつかのサード・パーティのボリューム・マネージャはクラスタ対応ではないため、サポートされていません。使用するボリューム・マネージャがサポートされているかどうかを確認するには、My Oracle Supportの「動作保証」をクリックし、そのボリューム・マネージャがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。
https://support.oracle.com
ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。
ファイル・システムを使用するには、第7.2項「共有ファイル・システムの記憶域の構成について」を参照してください。
Oracle Automatic Storage Managementを使用するには、第7.4.3項「Oracle ASMでのOracle Databaseファイルとディスク・グループの使用」を参照してください。
サーバーで検出される共有記憶域の場所に基づいて、インストーラによりOracle Cluster Registry (OCR)またはOracle Clusterware投票ファイルのデフォルトの場所が提案されます。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
注意: OCRは、クラスタの構成情報とステータスを含むファイルです。OCRは、インストーラによって、Oracle Clusterwareのインストール時に自動的に初期化されます。Database Configuration Assistantは、OCRを使用して、作成するクラスタ・データベースの構成情報を格納します。 |
Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。
NFSファイル・システムを使用するには、サポートされているNASデバイス上にある必要があります。次のURLでMy Oracle Supportにログインし、「動作保証」をクリックして、サポートされているNASデバイスの最新情報を調べます。
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置する場合は、次のいずれかで共有ファイル・システムを構成することをお薦めします。
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 12c リリース1 (12.1)の機能を使用してOCRに冗長性を提供している。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
インストールを実行するユーザー・アカウント(oracle
またはgrid
)には、指定したパスにファイルを作成するための書込み権限が必要です。
関連項目: グリッド・インフラストラクチャ管理リポジトリを必要とする機能の詳細は、『Oracle Database Quality of Service Managementユーザーズ・ガイド』を参照してください。 |
表7-3と表7-4を使用して、共有ファイル・システムの最小サイズを決定します。
表7-3 Oracle Clusterware共有ファイル・システムのボリューム・サイズ最小要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
外部に冗長性がある投票ファイル |
1 |
投票ファイル・ボリュームごとに300MB以上 |
外部冗長で作成され、グリッド・インフラストラクチャ管理リポジトリを持つOracle Cluster Registry (OCR) |
1 |
グリッド・インフラストラクチャ管理リポジトリを含むOCRボリュームに5.9GB以上(5.2GB +投票ファイルに300MB+ OCRに400MB)に加え、5以上のノードのクラスタではノードごとにさらに500MB。たとえば、6つのノードのクラスタには、6.9GBを割り当てる。 |
Oracle Clusterwareファイル(OCRおよび投票ファイル)およびOracleソフトウェアが冗長性を提供するグリッド・インフラストラクチャ管理リポジトリ |
3 |
OCRボリュームごとに400MB以上 投票ファイル・ボリュームごとに300MB以上 2 x 5.2GB (通常の冗長性): ノード数が5以上の場合、追加のノードごとに500MBを加える。 たとえば、6つのノードのクラスタのサイズは14.1GBになる。
= 14.1GB |
表7-4 Oracle RAC共有ファイル・システムのボリューム・サイズ最小要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表7-3および表7-4で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ファイル)で2GB以上の記憶域が使用可能である必要があります。投票ファイルおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で6.9GB以上の利用可能な記憶域が必要です。
注意: fdisk でデバイス・サイズ(+400M など)を指定し、共有パーティション上にパーティションを作成する際、実際に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合があります。これは、現在のfdiskの制限事項です。Oracle ASMで使用するために割り当てるディスク全体をパーティション化することをお薦めします。 |
注意: IBM: Linux on System zでは、グリッド・インフラストラクチャ管理リポジトリは使用できません。 |
新規インストールの場合は、Oracle Automatic Storage Management(Oracle ASM)を使用して、投票ファイルおよびOCRファイルを格納することをお薦めします。Linux86-64 (64-bit)プラットフォームでは、クラスタ・ファイル・システムOCFS2を利用できます。ただし、OCFS2は、Oracle Clusterwareファイル用に使用しないことをお薦めします。
カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。
Oracle Databaseでは、オペレーティング・システム・カーネルのNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントというクライアントを使用して、直接NFSサーバーにアクセスするようOracle Databaseを構成できます。Direct NFSクライアントでは、NFSサーバーへのアクセスにNFSv3、NFSv4およびNFSv4.1プロトコル(パラレルNFS拡張を除く)がサポートされています。
Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでそれ独自のNFSクライアントが使用されます。
Direct NFSクライアントでは、NFSサーバーに対して最大4つのネットワーク・パスがサポートされます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
ポート範囲を制限するNFSサーバーに対して、insecure
オプションを使用してroot
以外のクライアントがNFSサーバーに接続できるようにできます。または、第7.3.10項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。
Direct NFSクライアントでは、構成ファイル$ORACLE_HOME/dbs/oranfstab
、またはオペレーティング・システムのマウント・タブ・ファイル/etc/mtab
を使用して、どのマウント・ポイントが使用可能であるかを特定します。oranfstab
が存在しない場合は、デフォルトで、/etc/mtab
にあるエントリにDirect NFSクライアント・サーバーがマウントします。これ以上の構成は必要ありません。oranfstab
を使用すると、Direct NFSクライアントを使用する追加のOracle Database操作を具体的に指定できます。たとえば、oranfstab
を使用して、マウント・ポイントの追加のパスを指定できます。
Direct NFSクライアントでは、NFSサーバーに対して最大4つのネットワーク・パスがサポートされます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
Direct NFSクライアントを使用する場合、Oracleのデータ・ファイル管理専用の新しいファイル(oranfstab
)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstab
を使用して、マウント・ポイントの追加のパスを指定できます。oranfstab
ファイルは、/etc
または$ORACLE_HOME/dbs
のいずれかに追加できます。
共有Oracleホームでは、oranfstab
ファイルが$ORACLE_HOME/dbs
に格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstab
ファイルが使用されます。共有されていないOracle RACインストールでは、oranfstab
をすべてのノードにコピーする必要があります。
oranfstab
ファイルが/etc
に格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstab
ファイルが/etc
に格納されている場合、/etc/fstab
ファイルの場合と同様に、すべてのノードに/etc/oranfstab
ファイルをレプリケートし、各/etc/oranfstab
ファイルをすべてのノードで同期させる必要があります。
ダイレクトNFSを使用してサービスが提供されている場合でも、マウント・ポイントは常にカーネルNFSシステムによってマウントされる必要があります。オペレーティング・システムNFSの構成およびマウントを実行する方法については、そのベンダーのドキュメントを参照してください。
Direct NFSクライアントでは、/etc/mtab
の構成に基づいてNFSストレージ・デバイスに対するマウント・ポイントの設定を判断します(これは、/etc/fstab
ファイルを構成することによって変更できます)。
Direct NFSクライアントでは、次の順序でマウント・エントリが検索されます。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/mtab
Direct NFSクライアントでは、最初に検出されたエントリがマウント・ポイントとして使用されます。
Oracle Databaseでは、Direct NFSクライアントを介して提供されている場合でも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。
注意: インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。 |
Oracle Databaseでoranfstab
を使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab
内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSクライアントでは、情報メッセージを記録し、動作しません。
Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・オプションは、「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSクライアントをNFSサーバーに接続することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。
第7.1.1項「サポートされている記憶域オプション」に、Direct NFSクライアントでサポートされているファイル・タイプを示します。
Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。
関連項目: Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。
そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。
オペレーティング・システムおよびDirect NFSクライアントを構成するには、次の項を参照してください。
GridホームまたはOracle RACホームにNFSを使用している場合、次を有効にするために記憶域にNFSマウントを設定する必要があります。
記憶域にマウントされるクライアントのroot
ユーザーは、(匿名ユーザーとしてマップされているのではなく、)ファイル・サーバーのroot
ユーザーとみなすことができます。
クライアント・サーバーのroot
ユーザーは、ファイル・サーバーのroot
が所有しているNFSファイル・システムにファイルを作成できます。
NFSでは、サーバー側でno_root_squash
を有効にすることで、記憶域に書込みを行うクライアントにroot
アクセス権を取得できます。たとえば、ドメインmycluster.example.com
のノードnode1、node2、node3について、パス/vol/grid
のOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/exports
ファイルに追加します。
/vol/grid/ node1.mycluster.example.com(rw,no_root_squash) node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com (rw,no_root_squash)
ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにroot
アクセス権を付与します。
次に例を示します。
/vol/grid/ *.mycluster.example.com(rw,no_root_squash)
この構文を使用すると、NFSサーバーを再構成する必要なくノードの追加や削除を行えるので、セキュアなDNSまたはドメインを使用し、そのドメインを利用するクラスタ・メンバー・ノードにroot
アクセス権を付与することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。
注意: ドメイン単位でroot アクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、no_root_squash の使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。 |
/etc/exports
を変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。
# /usr/sbin/exportfs -avr
Oracle Grid Infrastructureクラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsize
およびwsize
の値を32768に設定する必要があります。
バイナリのNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,tcp,vers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0
注意: intr およびnointr マウント・オプションは、Oracle Unbreakable Enterprise LinuxおよびOracle Linuxのカーネル2.6.32以上では推奨されていません。 |
NFSマウント上にOracle Grid Infrastructureのバイナリがある場合は、nosuid
オプションを使用しないでください。
Oracle Clusterwareファイル(OCRおよび投票ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600,actimeo=0
ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstab
ファイルを更新します。たとえば、プラットフォームがx86-64であり、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstab
ファイルを次のエントリで更新します。
nfs_server:/vol/grid /u02/oracle/cwfiles nfs \ rw,bg,hard,nointr,tcp,vers=3,timeo=600,actimeo=0,rsize=32768,wsize=32768 0 0
Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ファイル)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。
nfs_server:/vol/bin /u02/oracle/grid nfs \
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0,suid
関連項目: マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。
|
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
Oracle RACファイルのNFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。NFSファイル・システムをマウントするときは、NASベンダーがデバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。推奨されるマウント・ポイント・オプションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。
各ノードの/etc/fstab
ファイルを次のエントリで更新します。
nfs_server:/vol/DATA/oradata /u02/oradata nfs\
rw,bg,hard,nointr,tcp,vers=3,timeo=600,actimeo=0,rsize=32768,wsize=32768 0 0
必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。これらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。これらのマウント・オプションの使用に失敗すると、ファイル・アクセス・エラーが生成される可能性があります。使用するプラットフォームでサポートされている個々のオプションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
デフォルトでネットワークのバッファ・サイズは、TCPでは1 MB、UDPでは2 MBに設定されます。TCPバッファ・サイズはファイル転送に制限を設定することが可能で、これはDirect NFSクライアント・ユーザーのパフォーマンスにマイナスの影響を与える場合があります。
現在のTCPバッファ・サイズをチェックするには、次のコマンドを入力します。
# sysctl -a |grep -e net.ipv4.tcp_[rw]mem
このコマンドの出力は、次のようになります。
net.ipv4.tcp_rmem = 4096 87380 1048576 net.ipv4.tcp_wmem = 4096 16384 1048576
サーバーのリンク速度に基づいて値を設定することをお薦めします。たとえば、次の手順を実行します。
root
として、テキスト・エディタを使用して/etc/sysctl.conf
を開き、次の行を追加または変更します。
net.ipv4.tcp_rmem = 4096 87380 4194304 net.ipv4.tcp_wmem = 4096 16384 4194304
次のコマンドを実行して変更を適用します。
# sysctl -p
ネットワークを再起動します。
# /etc/rc.d/init.d/network restart
Direct NFSクライアントを有効にするには、次の手順を実行します。
Direct NFSクライアントを使用してアクセスするNFSサーバーごとに、次の属性を使用してoranfstab
ファイルを作成します。
server: NFSサーバー名。
local: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパスであり、データベース・ホスト上でifconfig
コマンドを使用して表示できます。
path: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パスであり、NFSサーバー上でifconfig
コマンドを使用して表示できます。
export: NFSサーバーからエクスポートされたパス。
mount: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。
mnt_timeout: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600
)です。
nfs_version: Direct NFSクライアントが使用するNFSプロトコルのバージョンを指定します。設定可能な値は、NFSv3、NFSv4およびNFSv4.1です。デフォルトのバージョンはNFSv3です。NFSv4.xを選択する場合、oranfstab
でnfs_version
の値を構成する必要があります。
dontroute: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、そのメッセージがバインドされたIPアドレスを使用して送信するよう指定します。このPOSIXオプションは、同一サブネット上に複数のパスを持つLinuxシステムでは動作しない場合があることに注意してください。
management: Direct NFSクライアントを有効にして、SNMP問合せの管理インタフェースを使用します。SNMPがNFSサーバー上の別の管理インタフェースで実行されている場合は、このパラメータを使用できます。デフォルト値は、serverパラメータ値です。
community: SNMP問合せで使用するコミュニティ文字列を指定します。デフォルト値はpublicです。
関連項目: 非同期I/Oの制限の詳細は、『Oracle Databaseパフォーマンス・チューニング・ガイド』を参照してください。 |
NFSサーバーに関する可能なoranfstab
のエントリを例7-1、例7-2および例7-3に示します。1つのoranfstab
に、複数のNFSサーバー・エントリを含めることができます。
デフォルトでは、Oracle RACのインストール時にDirect NFSクライアントが有効な状態でインストールされます。ただし、Direct NFSクライアントが無効になっており、有効にする場合には、各ノードで次の手順を完了します。共有Gridホームをクラスタに使用する場合は、共有Gridホームで次の手順を完了します。
Oracle Grid Infrastructureインストール所有者としてログインします。
Grid_home
/rdbms/lib
ディレクトリに移動します。
次のコマンドを入力します。
$ make -f ins_rdbms.mk dnfs_on
例7-1 localおよびpathのNFSサーバー・エントリを使用
次の例では、localとpathの両方を使用しています。localとpathは異なるサブネットにあるため、dontroute
を指定する必要はありません。
server: MyDataServer1 local: 192.0.2.0 path: 192.0.2.1 local: 192.0.100.0 path: 192.0.100.1 export: /vol/oradata1 mount: /mnt/oradata1 nfs_version: nfsv3 community: private
例7-2 同一サブネット内のlocalおよびpathを使用(dontrouteを指定)
次の例では、同一サブネット内のlocalおよびpathを示しています。ここではdontroute
が指定されています。
server: MyDataServer2 local: 192.0.2.0 path: 192.0.2.128 local: 192.0.2.1 path: 192.0.2.129 dontroute export: /vol/oradata2 mount: /mnt/oradata2 nfs_version: nfsv4 management: 192.0.10.128
例7-3 IPアドレスのかわりに名前を使用(複数のエクスポート)
server: MyDataServer3 local: LocalPath1 path: NfsPath1 local: LocalPath2 path: NfsPath2 local: LocalPath3 path: NfsPath3 local: LocalPath4 path: NfsPath4 dontroute export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5 export: /vol/oradata6 mount: /mnt/oradata6
Direct NFSクライアントでハイブリッド列圧縮(HCC)を有効にする手順:
ZFSストレージ・サーバーでSNMPが有効であることを確認します。次に例を示します。
$ snmpget -v1 -c public server_name .1.3.6.1.4.1.42.2.225.1.4.2.0 SNMPv2-SMI::enterprises.42.2.225.1.4.2.0 = STRING: "Sun Storage 7410"
NFSサーバー以外のインタフェースでSNMPが有効な場合は、management
パラメータを使用してoranfstab
を構成します。
public以外のコミュニティ文字列を使用してSNMPが構成されている場合は、communityパラメータを使用してoranfstab
ファイルを構成します。
snmpget
が使用可能かどうかを確認して、libnetsnmp.so
がインストールされていることを確認します。
Direct NFSクライアントでは、NFSサーバー用のoranfstab
ファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。
gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。
gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。
gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。
注意: シングル・インスタンスにはv$ ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ ビューを使用します。 |
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。
注意: NFSおよびOCFS2記憶域のいずれも、Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイルを格納する場合にのみ、この手順を実行する必要があります。 |
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ファイルを1つずつ)があるファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、grid
かoracle
)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle
、Oracle Clusterwareファイルの記憶域がcluster
の場合は、次のようになります。
# mkdir /mount_point/cluster # chown oracle:oinstall /mount_point/cluster # chmod 775 /mount_point/cluster
注意: インストール後、OCRファイルのインストール・パスにあるディレクトリはroot が所有し、root 以外のアカウントでは書込みできないようにする必要があります。 |
マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid Infrastructure用のOCFS2またはNFSの構成は完了です。
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -h
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、ファイル・システムを特定します。
ファイル・タイプ | ファイル・システムの要件 |
---|---|
データベース・ファイル | 次のいずれかを選択します。
|
リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle
)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(高速リカバリ領域):
# mkdir /mount_point/recovery_area # chown oracle:oinstall /mount_point/recovery_area # chmod 775 /mount_point/recovery_area
oinstall
グループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のOCFS2またはNFSの構成は完了です。
Direct NFSクライアントを無効にするには、次の手順を実行します。
Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします(ここで、Grid_home
はOracle Grid Infrastructureホームへのパスです)。
$ cd Grid_home/rdbms/lib
$ make -f ins_rdbms.mk dnfs_off
クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。
oranfstab
ファイルを削除します。
注意: Oracle Databaseで使用されているNFSパスを削除した場合、変更内容を有効にするには、データベースを再起動する必要があります。 |
次の項で、Oracle Automatic Storage Managementの記憶域の構成について説明します。
この項では、Oracle Automatic Storage Managementで使用する記憶域の構成方法について説明します。
Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ファイル)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
注意:
|
Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。
外部冗長を使用する場合を除き、Oracle ASMでは、ディスク・グループ内の個別の障害グループに、すべてのOracle Clusterwareファイルをミラー化します。定数障害グループは特殊なタイプの障害グループで、投票ファイルが標準または高冗長ディスク・グループに格納されている場合に投票ファイルのミラー・コピーが格納されます。投票ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ファイル)があるディスク・グループは、投票ファイルは定数障害グループに格納されているので、他のディスク・グループよりも障害グループの最小数が多くなります。
定数障害グループは、Oracle Clusterware投票ファイルを格納する特殊なタイプの障害グループです。定数障害グループは、指定した障害グループの定数が使用可能であることを確認するために使用されます。Oracle ASMがOracle Clusterwareのファイルを含むディスク・グループをマウントすると、1つ以上の障害グループが失われたときにディスク・グループをマウントすることが可能かどうか決定するために定数障害グループが使用されます。定数障害グループ内のディスクには、ユーザー・データは含まれないので、定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。
冗長レベルは、次のとおりです。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
標準冗長ディスク・グループでは、Oracle Clusterwareファイル用に最小で3台のディスク・デバイスを必要とし(3つのディスクのうちの2つは障害グループに使用され、3つのディスクすべては定数障害グループで使用されます)、3つの投票ファイルと1つのOCR(プライマリとセカンダリ・コピーに1つずつ)が提供されます。標準冗長のクラスタは、障害グループを1つ失っても存続できます。
ほとんどの使用環境では、標準冗長を選択することをお薦めします。
高冗長
高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
高冗長ディスク・グループでは、Oracle Clusterwareファイル用に最小で5台のディスク・デバイスを必要とし(5つのディスクのうちの3つは障害グループに使用され、5つのディスクすべては定数障害グループで使用されます)、5つの投票ファイルと1つのOCR(プライマリ・コピーが1つとセカンダリ・コピーが2つ)が提供されます。高冗長のクラスタは、障害グループを2つ失っても存続できます。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
注意: ディスク・グループの作成後に、ディスク・グループの冗長レベルを変更することはできません。 |
Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
表7-5と表7-6を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します(投票ファイルは別のディスク・グループにあるものとします)。
表7-5 冗長タイプによるOracle Clusterwareに必要な最小記憶領域
冗長レベル | ディスクの最小台数 | Oracle Cluster Registry(OCR)ファイル | 投票ファイル | 合計 | グリッド・インフラストラクチャ管理リポジトリを含む記憶域の合計 |
---|---|---|---|---|---|
外部 |
1 |
400MB |
300MB |
700MB |
4以下のノードのクラスタには5.9GB以上(4.5GB + 400MB + 300MB)。 5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、6.9GB以上を割り当てる。 (5.2GB +2*(500MB) +400MB + 300MB)。 |
標準 |
3 |
障害グループごとに400MB以上または800MB |
900MB |
1.7GB脚注 1 |
4ノード以下のクラスタに12.1GB以上(2 * 5.2GB + 2 * 400MB + 3 * 300MB)。 5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、14.1GB以上を割り当てる。 (2 * (5.2GB + 2 * (500MB)) + (2 * 400MB) + (3 * 300MB))。 |
高 |
5 |
障害グループごとに400MB以上または1.2GB |
1.5GB |
2.7GB |
4ノード以下のクラスタに18.3GB以上(3 * 5.2GB + 3 * 400MB + 5 * 300MB)。 5以上のノードのクラスタには、これ以外にも領域が必要。たとえば、6つのノードのクラスタには、21.3GB以上を割り当てる。 (3 * (5.2GB + 2 * (500MB)) + (3 * 400MB) + (5 * 300MB))。 |
脚注 1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。
注意: 投票ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ファイル)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。インストール中に、OCRおよび投票ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。 |
割当て単位サイズを決定します。すべてのOracle ASMディスクは割当て単位(AU)に分割されます。割当て単位は、ディスク・グループ内の割当ての基本単位です。特定のディスク・グループ互換レベルに応じて、AUサイズの値に1、2、4、8、16、32、64MBを選択できます。デフォルト値は1MBに設定されています。
Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ファイルおよびOracle ASMメタデータのディスク領域の要件(単位: MB)を計算します。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)。
ausize: メタデータのAUサイズ(MB単位で、デフォルトは1MB)
nodes: クラスタ内のノード数。
clients: 各ノードのデータベース・インスタンス数。
disks: ディスク・グループ内のディスク数。
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、1684MBの追加領域が必要になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
$$Oracle ASMで標準冗長性ディスク・グループに対してOracle Clusterwareファイルの高可用性を確保するには、ほとんどのインストールで原則として、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。$$Oracle Clusterwareファイルを作成するのに効果的な2GBのディスク容量を確保するためのベスト・プラクティスは、各ディスクに2.1GB以上、3台のディスクで合計6.3GB以上の容量を確保することです。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd 、またはSQLコマンドを使用して、カスタム障害グループを定義します。
カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 データベース・ファイルと、投票ファイルを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。 投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。各ディスク・グループのデバイスは、別々の物理ディスク上に存在する必要があります。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle Grid InfrastructureとOracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。
関連項目: 割当て単位の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。
そのファイルを作成するには、次の手順を実行します。
必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。
この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。
ユーザーをroot
に切り替えます。
マウント・ポイント・ディレクトリをローカル・システムに作成します。次に例を示します。
# mkdir -p /mnt/oracleasm
システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/fstab
にファイル・システムのエントリを追加します。
関連項目:
|
次のようなコマンドを入力し、ローカル・システムにNFSファイルシステムをマウントします。
# mount /mnt/oracleasm
作成するディスク・グループの名前を選択します。たとえば、sales1
とします。
NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。次に例を示します。
# mkdir /mnt/oracleasm/nfsdg
次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。
# dd if=/dev/zero of=/mnt/oracleasm/nfsdg/disk1 bs=1024k count=1000 oflag=direct
この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。
作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid
、OSASMグループはasmadmin
です。
# chown -R grid:asmadmin /mnt/oracleasm # chmod -R 660 /mnt/oracleasm
Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。
/mnt/oracleasm/sales1/
注意: インストール中、ASMFDディスクまたはASMLIBディスクとしてラベル付けされたディスクは、デフォルト検出文字列の使用時に候補ディスクとして示されます。ただし、MEMBERというヘッダー・ステータスのディスクは、候補ディスクではありません。 |
既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
注意: 既存ディスク・グループを管理するOracle ASMインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
Oracle ASMディスク・グループがすでに存在するかどうか、またはディスク・グループのディスク領域が十分にあるかどうかを判断するには、Oracle Enterprise Manager Cloud ControlまたはOracle ASMコマンドライン・ツール(asmcmd
)を次のとおりに使用します。
Oracle ASMインスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/asmcmd ASMCMD> startup
次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
ASMCMD> lsdg
または
$ORACLE_HOME/bin/asmcmd -p lsdg
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
Oracle ASMフィルタ・ドライバ(Oracle ASMFD)は、デフォルトでOracle Grid Infrastructureとともにインストールされます。Oracle ASMFDは、Oracleソフトウェアによって発行されたのではない書込みI/Oリクエストをすべて拒否します。このフィルタによって、管理権限を持つユーザーが誤ってOracle ASMディスクに書き込むことがなくなり、Oracle ASMディスクとディスク・グループ内のファイルの破損が防がれます。ディスク・パーティションの場合、ユーザーがパーティション表に触っていないとして、Oracle ASMFDによって管理されるディスク上の領域が保護されます。
Oracle ASMFDを使用すると、システムを再起動するたびにOracle ASMで使用するディスク・デバイスをリバインドする必要がなくなるため、ディスク・デバイスの構成および管理が簡単になります。
関連項目:
|
次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle Automatic Storage Management (Oracle ASM)の記憶域の構成について説明します。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。Oracle ASMのディスク検出の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle ASMは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
Oracle ASMストレージ・クライアントには、ノードで実行中のOracle ASMがなく、他のクライアント・クラスタのOracle ASM記憶域サービスを使用します。
Oracle ASMの資格証明ファイルを作成するには、ストレージ・サーバー上のGrid_home
/bin
ディレクトリから、メンバー・ノードの1つで次のコマンドを実行します(credential_fileが、作成するOracle ASM資格証明ファイルの名前とパスです)。
Grid_home/bin/asmcmd mkcc client_cluster_name credential_file
次に例を示します。
Grid_home/bin/asmcmd mkcc clientcluster1 /home/grid/clientcluster1_credentials.xml
クライアント・クラスタのインストールを実行するクライアント・クラスタ・ノード上の安全なパスに、Oracle ASM資格証明ファイルをコピーします。Oracleインストール・ユーザーには、このファイルへのアクセス権限が必要です。他のユーザーにOracle ASM資格証明ファイルへのアクセス権限を付与しないことをお薦めします。インストールの実行中、ファイルへのパスを入力するように求めるメッセージが表示されます。
注意:
|
Oracle ACFSは、Oracle Grid Infrastructureインストール12cリリース1 (12.1)の一部としてインストールされます。
ASMCAを使用して、ACFSの汎用ファイル・システム構成を作成することもできます。
Oracle RACデータベース用にOracle Databaseホーム用のOracle ACFSを構成するには、次の手順を実行します。
クラスタ用のOracle Grid Infrastructureをインストールします。
Oracle Grid Infrastructureホームに移動します。次に例を示します。
$ cd /u01/app/12.1.0/grid
Oracle Grid Infrastructureインストール所有者が、使用するストレージ・マウント・ポイントに対する読込みおよび書込み権限を持っていることを確認します。たとえば、マウント・ポイント/u02/acfsmounts/
を使用する場合は次のようになります。
$ ls -l /u02/acfsmounts
Gridインストールの所有者として、Oracle ASM Configuration Assistantを起動します。次に例を示します。
./asmca
「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。「ASMクラスタ・ファイルシステム」タブをクリックします。
「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択します。
「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。
データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。この名前は、組織で一意である必要があります。たとえば、dbase_01
とします。
データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。たとえば、/u02/acfsmounts/dbase_01
とします。
後で参照するために、このマウント・ポイントを書き留めます。
データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。
データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を入力します。たとえば、oracle1
とします。
データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを入力します。このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与されます。たとえば、dba1
とします。
入力が完了したら、「OK」をクリックします。
特権ユーザー(root
)として、Oracle ASM Configuration Assistantによって生成されたスクリプトを実行します。Oracle Clusterware環境では、Oracle Clusterwareによって管理されるリソースとしてACFSが登録されます。リソースとしてACFSを登録することによって、ACFSがOracle RACデータベース・ホームに使用される場合に、Oracle ClusterwareがACFSを適切な順序で自動的にマウントできるようになります。
Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイント」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01
)。
関連項目: Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home
/bin
にあるOracle Automatic Storage Management Configuration Assistant (ASMCA)を使用して、既存のOracle ASMインスタンスをOracle ASM 12cリリース1 (12.1)にアップグレードし、その後で障害グループ、Oracle ASMボリュームおよびOracle Automatic Storage Managementクラスタ・ファイル・システム(ACFS)を構成できます。
注意: 既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。 |
インストール時に、11.2より前のOracle ASMリリースからアップグレードする際に、Oracle ASMを使用することを選択し、ASMCAによって以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 12cリリース1 (12.1)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。次に、Oracle ASMボリュームを作成し、アップグレードしたOracle ASMを使用してOracle ACFSを作成することで、Oracle ACFSのデプロイメントを構成できます。
Oracle ASM 11gリリース2 (11.2.0.1)以上からアップグレードする場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。以前のリリースから現在のリリースまで、ASMCAがOracle ASMを個別にアップグレードすることはできません。
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1以上の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。その場合、すべてのノード上のOracle ASMは12cリリース1 (12.1)にアップグレードされます。
IBM: Linux on System zでは、Oracle ClusterwareおよびAutomatic Storage Managementファイル用にRAW論理ボリューム・マネージャ(LVM)・ボリュームを使用できます。直接アクセス記憶装置(DASD)またはSCSIデバイス上のボリューム・グループに、必要なRAW論理ボリュームを作成できます。必要なRAW論理ボリュームを構成するには、次の手順を実行します。
注意: LinuxでFBAタイプのDASDをフォーマットする必要はありません。FBAタイプのDASDに対する単一のディスク全体パーティションのデバイス名は、/dev/dasd xxxx 1 です。 |
必要に応じて、ディスク・グループに使用する共有DASDをインストールまたは構成し、システムを再起動します。
次のコマンドを入力して、システムで構成されたDASDを確認します。
# more /proc/dasd/devices
このコマンドの出力結果には、次のような行が含まれます。
0302(ECKD) at ( 94: 48) is dasdm : active at blocksize: 4096, 540000 blocks, 2109 MB
これらの行では、各DASDの次の情報が表示されます。
デバイス番号(0302)
デバイス・タイプ(ECKD
またはFBA
)
Linuxデバイスのメジャー番号およびマイナー番号(94: 48
)
Linuxデバイスのファイル名(dasdm
)
通常、DASDのデバイス名は、dasd
xxxx
という形式で、xxxx
は、デバイスを識別する1から4文字の文字列です。
ブロック・サイズおよびデバイス・サイズ
表示内容から、使用するデバイスを特定します。
表示されたデバイスがFBAタイプのDASDの場合、それらを構成する必要はありません。Oracle Databaseファイルへのバインド手順に進むことができます。
ECKDタイプのDASDを使用する場合は、次のようなコマンドを入力して、DASDをフォーマットします(まだフォーマットされていない場合)。
# /sbin/dasdfmt -b 4096 -f /dev/dasdxxxx
注意: DASDをフォーマットすると、デバイス上のすべての既存のデータが破壊されます。次のことを確認してください。
|
このコマンドは、4KBのブロック・サイズと互換ディスク・レイアウト(デフォルト)でDASDをフォーマットし、DASD上に最大3つのパーティションを作成できます。
SCSIデバイス上にRAW論理ボリュームを作成する場合は、手順5に進みます。
DASDにRAW論理ボリュームを作成する場合に、DASDを互換ディスク・レイアウトでフォーマット済であれば、パーティションの作成方法を決定します。
デバイスに単一のディスク全体パーティションを作成するには(たとえば、データベース・ファイル用として1つのRAW論理ボリューム全体に1つのパーティションを作成するには)、次のようなコマンドを入力します。
# /sbin/fdasd -a /dev/dasdxxxx
このコマンドは、ディスク全体で1つのパーティションを作成します。これで、デバイスを物理ボリュームとしてマークできる状態になります。手順6に進みます。
デバイス上に最大3つのパーティションを作成するには(たとえば、個々の表領域用にパーティションを作成するには)、次のようなコマンドを入力します。
# /sbin/fdasd /dev/dasdxxxx
パーティションの作成時に、次のガイドラインを使用します。
p
コマンドを使用して、デバイスのパーティション表をリストします。
n
コマンドを使用して、新しいパーティションを作成します。
このデバイスに必要なパーティションを作成した後、w
コマンドを使用して、変更されたパーティション表をデバイスに書き込みます。
パーティションの作成方法の詳細は、fdasd
のマニュアル・ページを参照してください。
DASD上のパーティションには次のようなデバイス名があり、n
は、1から3のパーティション番号です。
/dev/dasdxxxxn
パーティションの作成が完了すると、デバイスを物理ボリュームとしてマークできる状態になります。手順6に進みます。
ボリューム・グループのSCSIデバイスを使用する場合は、次の手順を実行します。
次のようなコマンドを入力して、ボリューム・グループで使用する各デバイスを物理ボリュームとしてマークします。
SCSIデバイスの場合:
# pvcreate /dev/sda1 /dev/sdb1
DASDデバイスの場合:
# pvcreate /dev/dasda1 /dev/dasdb1
マークしたデバイスを使用してoracle_vg
というボリューム・グループを作成するには、次のようなコマンドを入力します。
SCSIデバイスの場合:
# vgcreate oracle_vg /dev/sda1 /dev/sdb1
DASDデバイスの場合:
# vgcreate oracle_vg /dev/dasda1 /dev/dasdb1
作成したボリューム・グループに必要な論理ボリュームを作成するには、次のようなコマンドを入力します。
# lvcreate -L size -n lv_name vg_name
この例の意味は次のとおりです。
size
は、論理ボリュームのサイズ(たとえば、500M
)
lv_name
は、論理ボリュームの名前(たとえば、orcl_system_raw_500m
)
vg_name
は、ボリューム・グループの名前(たとえばoracle_vg
)
たとえば、oracle_vg
ボリューム・グループのrac
というデータベースのSYSTEM表領域用に500MBの論理ボリュームを作成するには、次のコマンドを入力します。
# lvcreate -L 500M -n rac_system_raw_500m oracle_vg
注意: これらのコマンドは、各論理ボリュームに対して次のようなデバイス名を作成します。/dev/vg_name/lv_name |
他のクラスタ・ノードでは、次のコマンドを入力して、すべてのボリューム・グループをスキャンし、それをアクティブにします。
# vgscan # vgchange -a y