この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management (Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。
この章の内容は次のとおりです。
この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。内容は次のとおりです。
関連項目: 動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
|
Oracle Clusterwareファイルの格納には、次の2つの方法があります。
Oracle Automatic Storage Management(Oracle ASM): Oracle Clusterwareファイル(Oracle Cluster Registryおよび投票ディスク)をOracle ASMのディスク・グループにインストールできます。
標準インストールとStandard EditionのOracle RACインストールにおいて、Oracle ASMは必須のデータベース記憶域オプションです。これは、Oracle ClusterwareとOracle Databaseファイル用の、統合された高性能のデータベース・ファイル・システムおよびディスク・マネージャです。データベース・ファイルのストライプ化およびミラー化を自動的に実行します。
サポートされている共有ファイル・システム: サポートされているファイル・システムには、次のものがあります。
ネットワーク・ファイル・システム(NFS): データ・ファイルにNFSを使用する場合、Oracle Grid Infrastructure用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。NFSマウントは、ソフトウェア・バイナリ、Oracle Clusterwareファイル、データベース・ファイルで、それぞれ異なります。
関連項目: サポートされているファイル・システムと、NFSまたはNASファイラについては、My Oracle Supportを参照してください。 |
Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)によるOracle ASMテクノロジの拡張によって、単一インスタンスおよびクラスタ構成のいずれにおいても、すべてのアプリケーション・データがサポートされます。Oracle Automatic Storage Management動的ボリューム・マネージャ(Oracle ADVM)では、ボリューム管理サービスおよびクライアントへの標準ディスク・デバイス・ドライバ・インタフェースが提供されます。Oracle Automatic Storage Managementクラスタ・ファイル・システムは、Oracle Automatic Storage Management動的ボリューム・マネージャ・インタフェースを介してOracle ASM上に階層化されます。
Oracle ACFSおよびOracle ADVMは、Linux x86およびLinux x86-64用のOracle Linux 5およびRed Hat Enterprise Linux 5でサポートされます。表3-1に、Oracle ACFSおよびOracle ADVMがサポートされるリリース、プラットフォームおよびカーネルのバージョンを示します。
表3-1 Oracle ACFSおよびOracle ADVMがサポートされているプラットフォーム
リリース | プラットフォーム/オペレーティング・システム | |
---|---|---|
11.2.x |
Linux x86: Oracle Linux 5およびRed Hat Enterprise Linux 5 |
2.6.18および2.6.18の以降の更新 |
11.2.0.1 |
Linux x86-64: Oracle Linux 5およびRed Hat Enterprise Linux 5 |
2.6.18および2.6.18の以降の更新 |
11.2.0.2 |
Linux x86-64: Oracle Linux 5、Red Hat Enterprise Linux 5、SP3以上のSUSE Linux Enterprise Server 10 |
2.6.18および2.6.18の以降の更新 |
11.2.0.3 |
Linux x86-64: Oracle Linux 5、Red Hat Enterprise Linux 5、SP3以上のSUSE Linux Enterprise Server 10、SUSE Linux Enterprise Server 11 SP1 |
2.6.18および2.6.18の以降の更新 Oracle Unbreakable Enterprise Kernel 2.6.32-100.34.1および2.6.32-100の以降の更新 |
11.2.0.3 |
Linux x86-64: Oracle Linux 6 (Oracle Unbreakable Linux Kernelを使用) |
Oracle Unbreakable Enterprise Kernel 2.6.32-100.34.1および2.6.32-100の以降の更新 |
11.2.0.3.3 (Oracle Grid Infrastructure PSU) |
Linux x86-64: Red Hat Enterprise Linux 6、Red Hatと互換性があるカーネルを使用したOracle Linux |
6.0, 6.1, 6.2 |
11.2.0.3.4 (Oracle Grid Infrastructure PSU) |
Linux x86-64: Red Hat Enterprise Linux 6、Red Hatと互換性があるカーネルを使用したOracle Linux |
6.3以上 |
11.2.0.3.7 (Oracle Grid Infrastructure PSU) |
Linux x86-64: Oracle Linux 6 (Oracle Unbreakable Enterprise Kernelを使用)、SUSE Linux Enterprise Server 11 SP2 |
Oracle Unbreakable Enterprise Kernel 2.6.39-100および2.6.39-100の以降の更新 |
11.2.0.4 |
Linux x86-64: SUSE Linux Enterprise Server 11 SP3 |
関連項目:
|
注意: Security Enhanced Linux(SELinux)のデプロイメントは、Oracle ACFSファイル・システムではサポートされていません。 |
Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)は、汎用のファイル・システムです。このシステムにはOracle Databaseバイナリを配置できますが、Oracle ACFSにOracleデータ・ファイルやOracle Clusterwareファイルを配置することはできません。
Oracle ACFSの次の点に注意してください。
Oracle Restartは、rootベースのOracle Clusterwareリソースをサポートしません。このため、Oracle Restart構成でOracle ACFSを実行する場合は、次の制限が適用されます。
Oracle ACFSドライバは手動でロードおよびアンロードする必要があります。
Oracle ASMインスタンスの起動後、Oracle ACFSファイル・システムを手動でマウントおよびマウント解除する必要があります。
他の登録済Oracle ACFSファイル・システムとともに、Oracle ACFSマウント・レジストリにOracle ACFSデータベース・ホーム・ファイル・システムを配置できます。
Oracle ClusterwareのバイナリおよびファイルをOracle ACFSに配置することはできません。
Oracle DatabaseファイルをOracle ACFSに配置することはできません。
Oracle Databaseのバイナリおよび管理ファイル(トレース・ファイルなど)をOracle ACFSに配置することができます。
Oracle ACFSは、他のファイルのための汎用ファイル・システムとなります。
すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clusters(Oracle RAC)データベースに使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にするには、リカバリ・ファイル(高速リカバリ領域)に使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。
Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が格納されます。投票ディスクとOCRファイルは、Oracle ASMディスク・グループ、クラスタ・ファイル・システム、共有ネットワーク・ファイル・システムのいずれかに配置できます。記憶域は共有される必要があります。構成されている投票ディスクの大半(過半数)が利用できないノードは再起動されます。
次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapがサポートされているバージョン1.4.1以上にアップグレードする必要があります。
データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMを選択することをお薦めします。
Standard EditionのOracle RACインストールでは、データベース・ファイルまたはリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。
Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 11gリリース2(11.2)がインストールされている。
クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。
RAWデバイスやブロック・デバイスは、構成済のパーティションを使用している既存のインストールをアップグレードする場合のみ、サポートされます。新規インストールでのRAWデバイスまたはブロック・デバイス・パーティションの使用は、Oracle Automatic Storage Managementコンフィギュレーション・アシスタント(ASMCA)やOracle Universal Installer(OUI)ではサポートされていません。ただし、手動で構成を行えば、ソフトウェアでサポートされます。
関連項目: 既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。 |
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle Grid Infrastructureのインストール中、1つのディスク・グループを作成できます。Oracle Grid Infrastructureのインストール後は、ASMCA、SQL*PlusまたはASMCMDを使用して、追加のディスク・グループを作成できます。Oracle Database 11gリリース2(11.2)以上の場合、Oracle Database Configuration Assistant(DBCA)には、Oracle ASM用のディスク・グループを作成する機能がないことに注意してください。
Oracle Grid Infrastructureをインストールした後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ディスク・ファイル用に同じディスク・グループを使用するか、または異なるディスク・グループを使用できます。Oracle RACのインストール前またはデータベースの作成前に、複数のディスク・グループを作成する場合は、次のいずれかを実行できます。
Oracle Clusterwareファイルとしてデータ・ファイルを同じディスク・グループに配置する。
データ・ファイルおよびリカバリ・ファイル用に同じOracle ASMディスク・グループを使用する。
ファイル・タイプごとに異なるディスク・グループを使用する。
記憶域用に1つのディスク・グループのみを作成した場合、OCRと投票ディスク・ファイル、データベース・ファイルおよびリカバリ・ファイルは、1つのディスク・グループに配置されます。記憶域用に複数のディスク・グループを作成した場合は、異なるディスク・グループにファイルを配置できます。
注意: 既存のディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行されている必要があります。 |
関連項目: ディスク・グループの作成については、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。これは、使用するボリューム・マネージャが特定のベンダー・クラスタ・ソリューションとともに提供されることを意味します。使用するボリュームがサポートされていることを確認するには、My Oracle Supportの「動作保証」タブで、関連するクラスタ・ソリューションがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。
https://support.oracle.com
次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。
注意: OCFS2の詳細は、次のWebサイトを参照してください。
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有 OCFS2の動作保証と、その他のクラスタ・ファイル・システムのサポートについては、My Oracle Supportの「動作保証」ページを参照してください。 |
表3-2 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
記憶域オプション | OCRおよび投票ディスク・ファイル | Oracle Clusterwareバイナリ | Oracle RACバイナリ | Oracle Databaseファイル | Oracleリカバリ・ファイル |
---|---|---|---|---|---|
Oracle Automatic Storage Management (Oracle ASM) 注意: ループバック・デバイスは、Oracle ASMでは使用できません。 |
可 |
不可 |
不可 |
可 |
可 |
Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS) |
不可 |
不可 |
可 |
不可 |
不可 |
ローカル・ファイル・システム |
不可 |
可 |
可 |
不可 |
不可 |
動作保証されているNASファイラ上のNFSファイル・システム 注意: Direct NFSクライアントはOracle Clusterwareファイルをサポートしていません。 |
可 |
可 |
可 |
可 |
可 |
共有ディスク・パーティション(ブロック・デバイスまたはRAWデバイス) |
OUIおよびASMCAでは非サポートだが、ソフトウェアでサポート。インストール後に追加または削除できます。 |
不可 |
不可 |
OUIおよびASMCAでは非サポートだが、ソフトウェアでサポート。インストール後に追加または削除できます。 |
不可 |
次のガイドラインに従って、記憶域オプションを選択します。
ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。
ファイル・システムを使用する場合は、「共有ファイル・システムの記憶域の構成」を参照してください。
Oracle Automatic Storage Managementを使用する場合は、「Oracle ASMでのOracle Databaseファイルによるディスク・グループの使用」を参照してください。
インストーラでは、Oracle Cluster Registry(OCR)またはOracle Clusterware投票ディスク用のデフォルトの格納先は提供されません。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
注意: OCRは、クラスタの構成情報とステータスを含むファイルです。OCRは、インストーラによって、Oracle Clusterwareのインストール時に自動的に初期化されます。Database Configuration Assistantは、OCRを使用して、作成するクラスタ・データベースの構成情報を格納します。 |
Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。
NFSファイル・システムを使用するには、サポートされているNASデバイス上にある必要があります。次のURLでMy Oracle Supportにログインし、「動作保証」タブをクリックして、サポートされているNASデバイスの最新情報を調べます。
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置するように選択する場合は、次のいずれかに該当していることが推奨されます。
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 11g リリース2(11.2)の機能を使用してOCRに冗長性を提供している。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
インストールを実行するユーザー・アカウント(oracle
またはgrid
)には、指定したパスにファイルを作成するための書込み権限が必要です。
表3-3と表3-4を使用して、共有ファイル・システムの最小サイズを決定します。
表3-3 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
外部冗長で作成された投票ディスク |
3 |
投票ディスク・ボリュームごとに300MB以上 |
外部冗長で作成されたOracle Cluster Registry(OCR) |
1 |
OCRボリュームごとに300MB以上 |
Oracleソフトウェア提供の冗長で作成されたOracle Clusterwareファイル(OCRおよび投票ディスク) |
1 |
OCRボリュームごとに300MB以上 投票ディスク・ボリュームごとに300MB以上 |
表3-4 Oracle RAC共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表3-3および表3-4で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。投票ディスクおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で5.5GB以上の利用可能な記憶域が必要です。
注意: fdisk でデバイス・サイズ(+300M など)を指定し、共有パーティション上にパーティションを作成する際、実際に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合があります。これは、現在のfdiskの制限事項です。Oracle ASMで使用するために割り当てるディスク全体をパーティション化することをお薦めします。 |
新規インストールの場合は、Oracle Automatic Storage Management(Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めします。Linux x86(32-bit)およびx86-64(64-bit)プラットフォームでは、クラスタ・ファイル・システムOCFS2を利用できます。ただし、OCFS2は、Oracle Clusterwareファイル用に使用しないことをお薦めします。
カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。
Oracle Database 11g リリース2(11.2)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。
Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでNFSマウントが管理されます。
NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
ポート範囲を制限するNFSサーバーに対して、insecure
オプションを使用してroot
以外のクライアントがNFSサーバーに接続できるようにできます。または、第3.2.12項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。
Direct NFSクライアントを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab
)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstab
を使用して、マウント・ポイントの追加のパスを指定できます。oranfstab
ファイルは、/etc
または$ORACLE_HOME/dbs
のいずれかに追加できます。
共有Oracleホームでは、oranfstab
ファイルが$ORACLE_HOME/dbs
に格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstab
ファイルが使用されます。共有されていないOracle RACインストールでは、oranfstab
をすべてのノードにコピーする必要があります。
oranfstab
ファイルが/etc
に格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstab
ファイルが/etc
に格納されている場合、/etc/fstab
ファイルの場合と同様に、すべてのノードに/etc/oranfstab
ファイルをレプリケートし、各/etc/oranfstab
ファイルをすべてのノードで同期させる必要があります。
ダイレクトNFSを使用してサービスが提供されている場合でも、マウント・ポイントは常にカーネルNFSシステムによってマウントされる必要があります。
Direct NFSクライアントでは、/etc/mtab
の構成に基づいてNFSストレージ・デバイスに対するマウント・ポイントの設定を判断します(これは、/etc/fstab
ファイルを構成することによって変更できます)。
Direct NFSクライアントでは、次の順序でマウント・エントリが検索されます。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/mtab
Direct NFSクライアントでは、最初に検出された一致エントリが使用されます。
Oracle Databaseのデフォルトの設定では、ダイレクトNFSクライアントは有効ではありません。Direct NFSクライアントを有効にするには、次の手順を実行します。
$ORACLE_HOME/rdbms/lib
ディレクトリに移動します。
次のコマンドを入力します。
make -f ins_rdbms.mk dnfs_on
注意: インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。 |
Oracle Databaseでoranfstab
を使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab
内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSでは、情報メッセージが記録されますが、動作しません。
Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・オプションは、「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSクライアントをNFSサーバーに接続することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。
第3.1.7項「サポートされている記憶域オプション」に、Direct NFSでサポートされているファイル・タイプを示します。
Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。
関連項目: Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Database管理者ガイド』を参照してください。 |
Direct NFSクライアントでは、NFSサーバー用のoranfstab
ファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。
gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。
gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。
gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。
注意: シングル・インスタンスにはv$ ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ ビューを使用します。 |
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。
そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。
GridホームまたはOracle RACホームにNFSを使用している場合、記憶域にNFSマウントを設定する必要があり、こうすることで、記憶域にマウントしているクライアントのroot
が、匿名ユーザーにマップされるかわりにroot
と見なされ、クライアント・サーバーのroot
が、NFSファイル・システム上にroot
所有のファイルを作成できるようにします。
NFSでは、サーバー側でno_root_squash
を有効にすることで、記憶域に書込みを行うクライアントにroot
アクセス権を取得できます。たとえば、ドメインmycluster.example.com
のノードnode1、node2、node3について、パス/vol/grid
のOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/exports
ファイルに追加します。
/vol/grid/ node1.mycluster.example.com(rw,no_root_squash) node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com (rw,no_root_squash)
ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにroot
アクセス権を付与します。
次に例を示します。
/vol/grid/ *.mycluster.example.com(rw,no_root_squash)
この構文を使用すると、NFSサーバーの再構成を行うことなくノードの追加や削除を行えます。セキュアなDNSまたはドメインを使用して、そのドメインを利用するクラスタ・メンバー・ノードにroot
アクセス権を付与することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。
注意: ドメイン単位でroot アクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、no_root_squash の使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。 |
/etc/exports
を変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。
# /usr/sbin/exportfs -avr
クラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsize
およびwsize
の値を32768に設定する必要があります。
バイナリのNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,tcp,vers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0
注意: intr およびnointr マウント・オプションは、Oracle Linuxでは推奨されておらず、Oracle Unbreakable Enterprise LinuxおよびOracle Linuxのカーネル2.6.32以上でも推奨されていません。 |
NFSマウント上にOracle Grid Infrastructureのバイナリがある場合は、suid
オプションも使用する必要があります。
Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600,actimeo=0
ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstab
ファイルを更新します。たとえば、プラットフォームがx86-64であり、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstab
ファイルを次のエントリで更新します。
nfs_server:/vol/grid /u02/oracle/cwfiles nfs \ rw,bg,hard,nointr,tcp,vers=3,timeo=600,actimeo=0,rsize=32768,wsize=32768 0 0
Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。
nfs_server:/vol/bin /u02/oracle/grid nfs \
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0,suid
関連項目: マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。 |
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
NFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。NFSファイル・システムをマウントするときは、NASベンダーがデバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。推奨されるマウント・ポイント・オプションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。
各ノードの/etc/fstab
ファイルを次のエントリで更新します。
nfs_server:/vol/DATA/oradata /u02/oradata nfs\
rw,bg,hard,nointr,tcp,vers=3,timeo=600,actimeo=0,rsize=32768,wsize=32768 0 0
必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。これらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。これらのマウント・オプションを使用しなかった場合は、ファイル・アクセス・エラーが発生する可能性があります。ご使用のプラットフォームでサポートされている個々のオプションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
Direct NFSクライアントを有効にするには、次の手順を実行します。
Direct NFSクライアントを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstab
ファイルを作成します。
サーバー: NFSサーバー名。
ローカル: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパス。データベース・ホスト上でifconfig
コマンドを使用して表示できます。
パス: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パス。NFSサーバー上でifconfig
コマンドを使用して表示できます。
エクスポート: NFSサーバーからエクスポートされたパス。
マウント: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。
マウント・タイムアウト: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600
)です。
ルーティング不可: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、バインドされたIPアドレスを使用して送信するよう指定します。このPOSIXオプションは、同一サブネット上に複数のパスを持つLinuxシステムでは動作しない場合があることに注意してください。
management: Direct NFSクライアントを有効にして、SNMP問合せの管理インタフェースを使用します。SNMPがNFSサーバー上の別の管理インタフェースで実行されている場合は、このパラメータを使用できます。デフォルト値は、serverパラメータ値です。
community: SNMP問合せで使用するコミュニティ文字列を指定します。デフォルト値はpublicです。
この後の例では、oranfstab
のNFSサーバー・エントリを3種類示しています。1つのoranfstab
に、複数のNFSサーバー・エントリを含めることができます。
例3-1 ローカルおよびパスのNFSサーバー・エントリを使用
次の例では、localとpathの両方を使用しています。それぞれが異なるサブネットにあるため、dontroute
を指定する必要がありません。
server: MyDataServer1 local: 192.0.2.0 path: 192.0.2.1 local: 192.0.100.0 path: 192.0.100.1 export: /vol/oradata1 mount: /mnt/oradata1 community: private
例3-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)
次の例では、同一サブネット内のlocalおよびpathを示しています。ここではdontroute
が指定されています。
server: MyDataServer2 local: 192.0.2.0 path: 192.0.2.128 local: 192.0.2.1 path: 192.0.2.129 dontroute export: /vol/oradata2 mount: /mnt/oradata2 management: 192.0.10.128
例3-3 IPアドレスのかわりに名前を使用(複数のエクスポート)
server: MyDataServer3 local: LocalPath1 path: NfsPath1 local: LocalPath2 path: NfsPath2 local: LocalPath3 path: NfsPath3 local: LocalPath4 path: NfsPath4 dontroute export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5 export: /vol/oradata6 mount: /mnt/oradata6
デフォルトでは、Direct NFSクライアントは無効な状態でインストールされます。Direct NFSクライアントを有効にするには、各ノードで次の手順を完了します。共有Gridホームをクラスタに使用する場合は、共有Gridホームで次の手順を完了します。
Oracle Grid Infrastructureインストール所有者としてログインします。
Grid_home
/rdbms/lib
ディレクトリに移動します。
次のコマンドを入力します。
$ make -f ins_rdbms.mk dnfs_on
Direct NFSクライアントでハイブリッド列圧縮(HCC)を有効にする手順:
ZFSストレージ・サーバーでSNMPが有効であることを確認します。次に例を示します。
$ snmpget -v1 -c public server_name .1.3.6.1.4.1.42.2.225.1.4.2.0 SNMPv2-SMI::enterprises.42.2.225.1.4.2.0 = STRING: "Sun Storage 7410"
NFSサーバー以外のインタフェースでSNMPが有効な場合は、management
パラメータを使用してoranfstab
を構成します。
public以外のコミュニティ文字列を使用してSNMPが構成されている場合は、communityパラメータを使用してoranfstab
ファイルを構成します。
snmpget
が使用可能かどうかを確認して、libnetsnmp.so
がインストールされていることを確認します。
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。
注意: NFSおよびOCFS2記憶域のいずれも、Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイルを格納する場合にのみ、この手順を実行する必要があります。 |
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、grid
かoracle
)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle
、Oracle Clusterwareファイルの記憶域がcluster
の場合は、次のようになります。
# mkdir /mount_point/cluster # chown oracle:oinstall /mount_point/cluster # chmod 775 /mount_point/cluster
注意: インストール後、OCRファイルのインストール・パスにあるディレクトリはroot が所有し、root 以外のアカウントでは書込みできないようにする必要があります。 |
マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid Infrastructure用のOCFS2またはNFSの構成は完了です。
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -h
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、ファイル・システムを特定します。
ファイル・タイプ | ファイル・システムの要件 |
---|---|
データベース・ファイル | 次のいずれかを選択します。
|
リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle
)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(高速リカバリ領域):
# mkdir /mount_point/recovery_area # chown oracle:oinstall /mount_point/recovery_area # chmod 775 /mount_point/recovery_area
oinstall
グループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のOCFS2またはNFSの構成は完了です。
Direct NFSクライアントを無効にするには、次の手順を実行します。
Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします。Grid_home
はOracle Grid Infrastructureホームへのパスです。
$ cd Grid_home/rdbms/lib
$ make -f ins_rdbms.mk dnfs_off
クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。
oranfstab
ファイルを削除します。
注意: Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。 |
次の項で、Oracle Automatic Storage Managementの記憶域の構成について説明します。
この項では、Oracle Automatic Storage Managementで使用する記憶域の構成方法について説明します。
Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ディスク)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
注意: Oracle Clusterware、Oracle Databaseファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。一方のファイル・タイプに共有ファイル・システムを、他方にOracle ASMを使用することもできます。自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバリ・ファイルの記憶域にOracle ASMを使用する必要があります。 |
インストール中に自動バックアップを有効にした場合は、高速リカバリ領域にOracle Automatic Storage Managementディスク・グループを指定することで、リカバリ・ファイル用の記憶域メカニズムとしてOracle ASMを選択できます。非対話型のインストール・モードを選択した場合、デフォルトで1つのディスク・グループが作成され、そこにOCRと投票ディスク・ファイルが格納されます。後続のデータベース・インストールで使用するために他のディスク・グループが必要な場合は、対話型モードを選択するか、ASMCA(コマンドライン・ツール)を実行して、データベースのインストールを開始する前に、適切なディスク・グループを作成します。
Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。
Oracle ASMディスク・グループに選択した冗長レベルによって、Oracle ASMでディスク・グループ内のファイルをミラー化する方法および必要となるディスク数と空きディスク領域は次のようになります。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
Oracle Clusterwareファイルの場合、外部冗長ディスク・グループは、コピーなしの1つの投票ディスクと1つのOCRを提供します。高可用性を確保するためにミラー化を行うには、外部テクノロジを使用する必要があります。
Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
Oracle Clusterwareファイルの場合、標準冗長ディスク・グループでは、投票ディスク・ファイルが3つ、OCRが1つ、コピーが2つ(1つはプライマリ、1つはセカンダリ・ミラー)になります。標準冗長のクラスタは、障害グループを1つ失っても存続できます。
ほとんどの使用環境では、標準冗長を選択することをお薦めします。
高冗長
高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
Oracle Clusterwareファイルの場合、高冗長ディスク・グループでは、投票ディスク・ファイルが5つ、OCRが1つ、コピーが3つ(1つはプライマリ、2つはセカンダリ・ミラー)になります。高冗長のクラスタは、障害グループを2つ失っても存続できます。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
表3-5と表3-6を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します(投票ディスクは別のディスク・グループにあるものとします)。
表3-5 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計
冗長レベル | ディスクの最小台数 | Oracle Cluster Registry(OCR)ファイル | 投票ディスク・ファイル | 合計 |
---|---|---|---|---|
外部 |
1 |
300MB |
300MB |
600MB |
標準 |
3 |
600MB |
900MB |
1.5GB脚注 1 |
高 |
5 |
900MB |
1.5GB |
2.4GB |
脚注 1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。
注意: 投票ディスク・ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。インストール中に、OCRおよび投票ディスク・ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。 定数障害グループは特別なタイプの障害グループであり、これらの障害グループのディスクにユーザー・データは含まれません。定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。ただし、ディスク・グループをマウントする場合は定数障害グループが考慮されます。 |
割当て単位サイズを決定します。すべてのOracle ASMディスクは割当て単位(AU)に分割されます。割当て単位は、ディスク・グループ内の割当ての基本単位です。特定のディスク・グループ互換レベルに応じて、AUサイズの値に1、2、4、8、16、32、64MBを選択できます。デフォルト値は1MBに設定されています。
Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ディスク・ファイルおよびOracle ASMメタデータのディスク領域の要件(単位: MB)を計算します。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)。
ausize: メタデータのAUサイズ(MB単位で、デフォルトは1MB)
nodes: クラスタ内のノード数。
clients: 各ノードのデータベース・インスタンス数。
disks: ディスク・グループ内のディスク数。
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、1684MBの追加領域が必要になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
$$Oracle ASMで標準冗長性ディスク・グループに対してOracle Clusterwareファイルの高可用性を確保するには、ほとんどのインストールで原則として、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。$$Oracle Clusterwareファイルを作成するのに効果的な2GBのディスク容量を確保するためのベスト・プラクティスは、各ディスクに2.1GB以上、3台のディスクで合計6.3GB以上の容量を確保することです。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd 、またはSQLコマンドを使用して、カスタム障害グループを定義します。
カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 データベース・ファイルと、投票ディスクを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。 投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。各ディスク・グループのデバイスは、別々の物理ディスク上に存在する必要があります。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。
動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。
そのファイルを作成するには、次の手順を実行します。
必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。
この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。
ユーザーをroot
に切り替えます。
マウント・ポイント・ディレクトリをローカル・システムに作成します。次に例を示します。
# mkdir -p /mnt/oracleasm
システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/fstab
にファイル・システムのエントリを追加します。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、man
ページを参照してください。推奨されるマウント・オプションの詳細は、「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」を参照してください。
次のようなコマンドを入力し、ローカル・システムにNFSファイルシステムをマウントします。
# mount /mnt/oracleasm
作成するディスク・グループの名前を選択します。たとえば、sales1
とします。
NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。次に例を示します。
# mkdir /mnt/oracleasm/nfsdg
次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。
# dd if=/dev/zero of=/mnt/oracleasm/nfsdg/disk1 bs=1024k count=1000 oflag=direct
この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。
作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid
、OSASMグループはasmadmin
です。
# chown -R grid:asmadmin /mnt/oracleasm # chmod -R 660 /mnt/oracleasm
Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。
/mnt/oracleasm/sales1/
注意: インストール中、Oracle ASMでマウントされ文字列ORCL:*でASMLIBに登録されたディスク・パスが、デフォルトのデータベース記憶域の候補ディスクとして一覧表示されます。 |
既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
注意: 既存ディスク・グループを管理するOracle Automatic Storage Managementインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
既存のOracle Automatic Storage Managementディスク・グループが存在するかどうか、またはディスク・グループに十分なディスク領域があるかどうかを判断するために、Oracle ASMコマンドライン・ツール(asmcmd
)、Oracle Enterprise Manager Grid ControlまたはDatabase Controlを使用できます。また、次の手順も使用できます。
oratab
ファイルの内容を表示して、Oracle Automatic Storage Managementインスタンスがシステムに組み込まれているかどうかを判断します。
$ more /etc/oratab
Oracle Automatic Storage Managementインスタンスがシステムに組み込まれている場合、oratab
ファイルには次のような行が含まれます。
+ASM2:oracle_home_path
この例では、+ASM2
はOracle Automatic Storage Managementインスタンスのシステム識別子(SID)、oracle_home_path
はOracle Automatic Storage Managementインスタンスが組み込まれているOracleホーム・ディレクトリです。表記規則により、Oracle Automatic Storage ManagementインスタンスのSIDは、プラス(+)記号で始まります。
環境変数ORACLE_SID
およびORACLE_HOME
を設定して、Oracle Automatic Storage Managementインスタンスに対して適切な値を指定します。
Oracle Automatic Storage Managementインスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/asmcmd ASMCMD> startup
次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
ASMCMD> lsdg
または
$ORACLE_HOME/bin/asmcmd -p lsdg
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
Oracle Automatic Storage Management(Oracle ASM)ライブラリ・ドライバ(ASMLIB)を使用すると、システムを再起動するたびにOracle ASMで使用するディスク・デバイスをリバインドする必要がなくなるため、ディスク・デバイスの構成および管理が簡単になります。
ASMLIB Linux 2.6以上のカーネルがないときは、権限
ファイルかルール
・ファイルをクラスタ・メンバー・ノードごとに作成しなければ、ブロック・デバイス・パスの永続的な権限とパスを保持することはできません。/dev/sda
であったブロック・デバイス・パスが、システムの再起動後は/dev/sdb
として表示されることがあります。新しいディスクを追加する際には、udev
ファイルを変更して、新しいディスクの永続的な権限とパスを指定する必要があります。
ASMLIBで、Oracle ASMディスクとして使用可能にするディスク範囲を定義します。ASMLIBによって、ストレージ・デバイス上で永続する権限とディスク・ラベルが保持されます。そのため、オペレーティング・システムのアップグレード後でもそのラベルを使用できます。ノードごとにoracleasm
コマンドを1回実行して、すべてのクラスタ・メンバー・ノードでストレージ・パスを更新できます。
Linuxのデータベース記憶域にブロック・デバイス上のOracle ASMを使用する場合は、ASMLIBドライバと関連ユーティリティをインストールし、これらを使用してOracle ASM用のディスクを構成することをお薦めします。
注意: IBM: Linux on System zサーバーでは、ブロック・サイズの互換性の問題により、Oracle Grid Infrastructureリリース11.2.0.1以上用にSCSIストレージ・デバイスおよびファイバ・チャネル・プロトコル(FCP)でASMLIBを使用できません。回避策: ブロック・デバイスを直接使用(たとえば、 |
関連項目: My Oracle SupportのNote「How to Manually Configure Disk Storage devices for use with Oracle ASM 11.2 on IBM: Linux on System z under SLES」(Doc ID 1350008.1)および「How to Manually Configure Disk Storage devices for use with Oracle ASM 11.2 on IBM: Linux on System z under Red Hat 5」(Doc ID 1351746.1)を次のURLで入手できます。 |
Oracle Automatic Storage Managementライブラリ(ASMLIB)・ドライバを使用してOracle ASMデバイスを構成するには、次の作業を行います。
注意: Oracle ASMライブラリ・ドライバを使用して、インストール中にデータベースを作成するには、対話型モードでASMCAを実行するインストール方法を選択する必要があります。また、デフォルトのディスク検出文字列をORCL:* に変更する必要があります。 |
ASMLIBは、Unbreakable Enterprise KernelパッケージおよびSUSE 11にすでに含まれています。Unbreakable Linux Networkのメンバーの場合、Oracle Software for Enterprise Linuxチャネルをサブスクライブし、up2date
を使用してシステムおよびカーネルの最新パッケージを取得することによって、ASMLIB rpmsをインストールできます。詳細は、次のURLを参照してください。
http://www.oracle.com/technetwork/topics/linux/asmlib/index-101839.html
ASMLIBドライバ・ソフトウェアを手動でインストールおよび構成するには、次の手順を実行します。
次のコマンドを入力して、システムのカーネル・バージョンおよびアーキテクチャを判別します。
# uname -rm
次のOracle Technology Network(OTN)のWebサイトから必要なASMLIBパッケージをダウンロードします。
http://www.oracle.com/technetwork/server-storage/linux/downloads/index-088143.html
注意: Red Hat Enterprise Linux 5 Advanced ServerでASMLIBを使用するには、oracleasm-support パッケージのバージョン2.0.1以上をインストールする必要があります。ASMLIBは、SUSEディストリビューションにすでに含まれています。 |
ヒント: Red HatディストリビューションでのASMLIBサポートの詳細は、My Oracle SupportのNote 1089399.1を参照してください。
|
次のパッケージをインストールする必要があります。version
はASMLIBドライバのバージョン、arch
はシステム・アーキテクチャ、kernel
は使用しているカーネル・バージョンです。
oracleasm-support-version.arch.rpm oracleasm-kernel-version.arch.rpm oracleasmlib-version.arch.rpm
ユーザーをroot
ユーザーに切り替えます。
$ su -
次のコマンドを入力して、パッケージをインストールします。
# rpm -ivh oracleasm-support-version.arch.rpm \ oracleasm-kernel-version.arch.rpm \ oracleasmlib-version.arch.rpm
たとえば、AMD64システムでRed Hat Enterprise Linux 5 ASのカーネルを使用している場合は、次のコマンドを入力します。
# rpm -ivh oracleasm-support-2.1.3-1.el5.x86_64.rpm \ oracleasm-2.6.18-194.26.1.el5xen-2.0.5-1.el5.x86_64.rpm \ oracleasmlib-2.0.4-1.el5.x86_64.rpm
次のコマンドを入力し、configure
オプションを使用してoracleasm
初期化スクリプトを実行します。
# /usr/sbin/oracleasm configure -i
注意: /usr/sbin にあるoracleasm コマンドを使用してください。/etc/init.d パスは非推奨ではありませんが、このパスにあるoracleasm バイナリは、現在では通常、内部コマンドに使用されています。 |
スクリプトで表示されるプロンプトへの応答で、次の情報を入力します。
プロンプト | 推奨される応答 |
---|---|
Default user to own the driver interface: | グループおよびユーザーの標準構成: Oracleソフトウェア所有者ユーザー(oracle など)を指定します。
役割区分によるグループおよびユーザーの構成: グリッド・インフラストラクチャ・ソフトウェア所有者( |
Default group to own the driver interface: | グループおよびユーザーの標準構成: データベースのOSDBAグループ(dba など)を指定します。
役割区分によるグループおよびユーザーの構成: 記憶域管理のOSASMグループ( |
Start Oracle ASM Library driver on boot (y/n): | システムの起動時にOracle Automatic Storage Managementライブラリ・ドライバを起動するには、y と入力します。 |
Scan for Oracle ASM disks on boot (y/n) | システムの起動時にOracle ASMディスクをスキャンするには、y と入力します。 |
スクリプトによって、次の作業が実行されます。
/etc/sysconfig/oracleasm
構成ファイルの作成
/dev/oracleasm
マウント・ポイントの作成
ASMLIBドライバのファイル・システムのマウント
注意: ASMLIBドライバのファイル・システムは、通常のファイル・システムではありません。Oracle ASMドライバと通信するOracle ASMライブラリでのみ使用されます。 |
次のコマンドを入力して、oracleasm
カーネル・モジュールをロードします。
# /usr/sbin/oracleasm init
Oracle RACのインストール先となるクラスタ内のすべてのノードでこの手順を繰り返します。
Oracle ASMディスク・グループで使用するディスク・デバイスを構成するには、次の手順を実行します。
Oracle ASMディスク・グループでIDE、SCSIまたはRAIDデバイスを使用する場合は、次の手順を実行します。
次のコマンドを入力して、使用するディスクのデバイス名を確認します。
# /sbin/fdisk -l
デバイス名は、ディスク・タイプによって異なることがあります。
ディスク・グループにデバイスを含めるには、ドライブ・デバイス名またはパーティション・デバイス名のいずれかを指定します。
注意: 各ディスクに、単一のディスク全体パーティションを作成することをお薦めします。 |
fdisk
またはparted
のいずれかを使用して、ディスク・デバイスに、単一のディスク全体パーティションを作成します。
次のコマンドを入力して、ディスクをOracle ASMディスクとしてマークします。
# /usr/sbin/oracleasm createdisk DISK1 /dev/sdb1
この例で、DISK1
はディスクに割り当てる名前です。
注意: ディスク名に使用できる文字は、大文字、数字およびアンダースコアです。大文字で始める必要があります。Oracle ASMでマルチ・パス・ディスク・ドライバを使用している場合は、そのディスクに正しい論理デバイス名を指定してください。 |
ディスクをクラスタ内の他のノードで使用可能にするには、各ノードでroot
として次のコマンドを入力します。
# /usr/sbin/oracleasm scandisks
このコマンドによって、Oracle ASMディスクとしてマークされているノードに接続されている共有ディスクが識別されます。
DASDを互換ディスク・レイアウトでフォーマットした場合は、次のコマンドを入力して、デバイスに単一のディスク全体パーティションを作成します。
# /sbin/fdasd -a /dev/dasdxxxx
次のコマンドを入力して、ディスクをASMディスクとしてマークします。
# /etc/init.d/oracleasm createdisk DISK1 /dev/dasdxxxx
この例で、DISK1
はディスクに割り当てる名前です。
注意: ディスク名に使用できる文字は、大文字、数字およびアンダースコアです。大文字で始める必要があります。ASMでマルチ・パス・ディスク・ドライバを使用している場合は、そのディスクに正しい論理デバイス名を指定してください。 |
ディスクを他のクラスタ・ノードで使用可能にするには、各ノードでrootとして次のコマンドを入力します。
# /etc/init.d/oracleasm scandisks
このコマンドによって、ASMディスクとしてマークされているノードに接続されている共有ディスクが識別されます。
Oracle Automatic Storage Managementライブラリ・ドライバ(ASMLIB)およびディスクを管理するには、表3-7に示す様々なオプションとともにoracleasm
初期化スクリプトを使用します。
表3-7 ORACLEASMスクリプト・オプション
オプション | 説明 |
---|---|
configure |
必要に応じて、 # /usr/sbin/oracleasm configure -i コマンド・オプションを表示するには、 |
enable disable |
# /usr/sbin/oracleasm enable |
start stop restart |
# /usr/sbin/oracleasm restart |
createdisk |
# /usr/sbin/oracleasm createdisk DISKNAME devicename |
deletedisk |
# /usr/sbin/oracleasm deletedisk DISKNAME
注意: このコマンドを使用して、Oracle Automatic Storage Managementディスク・グループで使用されているディスクのマークは外さないでください。このディスクは、Oracle Automatic Storage Managementディスク・グループから削除した後でマークを外す必要があります。 |
querydisk |
# /usr/sbin/oracleasm querydisk {DISKNAME | devicename} |
listdisks |
# /usr/sbin/oracleasm listdisks |
scandisks |
# /usr/sbin/oracleasm scandisks |
Oracle Automatic Storage Managementライブラリ・ドライバ(ASMLIB)をサード・パーティ・ベンダーのマルチパス・ディスクで使用するには、追加の構成が必要です。
Oracle ASMでは、各ディスクが一意に識別されている必要があります。同じディスクが複数のパスの下に存在するとエラーになります。マルチパス・ディスク構成では、同じディスクが次の3か所で存在できます。
ディスクへの最初のパス
ディスクへの2つ目のパス
マルチパス・ディスクのアクセス・ポイント
例: 1つのローカル・ディスク(/dev/sda
)および外部記憶域に接続した1つのディスクがある場合、サーバーにはその外部記憶域への2つの接続またはパスが表示されます。Linux SCSIドライバは、両方のパスを示します。それらは、/dev/sdb
および/dev/sdc
として表示されます。システムは/dev/sdb
または/dev/sdc
のいずれかにアクセスする場合がありますが、同じディスクにアクセスしていることになります。
マルチパスを有効にすると、/dev/sdb
および/dev sdc
の両方にアクセス可能なマルチパス・ディスク(/dev/multipatha
など)を持つことになり、multipatha
へのすべてのI/Oはsdb
またはsdc
のいずれかのパスを使用できます。システムが/dev/sdb
パスを使用している場合にそのケーブルが抜かれると、システムはエラーを表示します。ただし、マルチパス・ディスクは/dev/sdb
パスから/dev/sdc
パスへ切り替わります。
ほとんどのシステム・ソフトウェアはマルチパス構成を認識していません。任意のパス(sdb
、sdc
またはmultipatha
)を使用できます。ASMLIBもマルチパス構成を認識していません。
デフォルトでは、ASMLIBはLinuxがレポートする最初のディスク・パスを認識しますが、アイデンティティがディスクに残るため、そのディスクが1つのパスにのみあると認識します。ストレージ・ドライバによっては、マルチパス・ディスクを認識する場合や、またはいずれかの単一ディスク・パスを認識する場合があります。
デフォルトのままにするのではなく、マルチパス・ディスクを認識するようにOracle ASMを構成する必要があります。
ASMLIB構成ファイルはパス/etc/sysconfig/oracleasm
にあります。これは、コマンド/etc/init.d/oracleasm configure
で指定したすべての起動時構成が含まれます。このコマンドでスキャン順序を構成することはできません。
構成ファイルには多くの構成変数が含まれます。ORACLEASM_SCANORDER
変数は、最初にスキャンされるディスクを指定します。ORACLEASM_SCANEXCLUDE
変数は、無視されるディスクを指定します。
スペース区切り接頭辞文字列を使用して、ORACLEASM_SCANORDER
の値を構成します。接頭辞文字列は、ディスクのタイプに関連付けられている一般的な文字列です。たとえば、接頭辞文字列sd
を使用すると、この文字列は/dev/sda
、/dev/sdb
、/dev/sdc
などを含むすべてのSCSIデバイスと一致します。globでないことに注意してください。これらはワイルドカードを使用しません。単に接頭辞です。また、パスは接頭辞の一部ではないことに注意してください。たとえば、/dev/
パスは、パス/dev/sd
*に含まれるSCSIディスクの接頭辞の一部ではありません。
Oracle LinuxおよびRed Hat Enterprise Linuxバージョン5では、スキャン時にカーネルはデバイスを/dev/mapper/
XXX
エントリとみなします。デフォルトでは、2.6カーネル・デバイスのファイル・ネーミング・スキームudev
によって、わかりやすさを考慮して/dev/mapper/
XXX
という名前が作成されます。ORACLEASM_SCANORDER
を使用するすべての構成では、/dev/mapper/
XXX
エントリを使用する必要があります。
最初にマルチパス・ディスクを選択するようにASMLIBを構成するには、次の手順を実行します。
テキスト・エディタを使用して、ASMLIB構成ファイル/etc/sysconfig/oracleasm
を開きます。
ORACLEASM_SCANORDER変数を編集して、マルチパス・ディスクの接頭辞パスを指定します。たとえば、マルチパス・ディスクが接頭辞multipath
(/dev/mapper/multipatha
、/dev/mapper/multipathb
など)を使用しており、マルチパス・ディスクがSCSIディスクをマウントする場合、次のような接頭辞パスを指定します。
ORACLEASM_SCANORDER="multipath sd"
ファイルを保存します。
この手順が完了すると、ASMLIBがディスクをスキャンするときに、最初に接頭辞文字列multipathを持つすべてのディスクがスキャンされ、それらのディスクは/dev/mapper/multipath
X
という値を使用してOracle ASMディスクとしてラベル付けされます。その後、接頭辞文字列sd
を持つすべてのディスクがスキャンされます。ただし、ASMLIBではこれらのディスクはすでに/dev/mapper/multipath
文字列値でラベル付けされているものとして認識するため、これらのディスクは無視されます。接頭辞文字列multipath
およびsd
をスキャンした後、Oracle ASMによりスキャン順に一致しないその他のディスクがスキャンされます。
手順2の例では、キーワードのmultipathは、実際にmultipaths
セクションの下の/etc/multipath.conf
で構成されたマルチパス・デバイスの別名です。次に例を示します。
multipaths { multipath { wwid 3600508b4000156d700012000000b0000 alias multipath ... } multipath { ... alias mympath ... } ... }
デフォルトのデバイス名は、/dev/mapper/mpath*のような形式です。
特定の単一パス・ディスクを除外するようにASMLIBを構成するには、次の手順を実行します。
テキスト・エディタを使用して、ASMLIB構成ファイル/etc/sysconfig/oracleasm
を開きます。
ORACLEASM_SCANEXCLUDE
変数を編集して、単一パス・ディスクの接頭辞パスを指定します。たとえば、単一パス・ディスク/dev sdb
および/dev/sdc
を除外する場合は、次のような接頭辞パスを指定します。
ORACLEASM_SCANEXCLUDE="sdb sdc"
ファイルを保存します。
この手順が完了すると、ASMLIBがディスクをスキャンするときに、接頭辞がsdb
およびsdc
のディスクを除くすべてのディスクがスキャンされ、/dev/sdb
および/dev/sdc
は無視されます。他のSCSIディスクもマルチパス・ディスクも無視されません。/dev/sdb
および/dev sdc
にアクセスするマルチパス・ディスク(/dev/multipatha
など)を持ち、sdb
およびsdc
を無視するようにASMLIBを構成した場合は、これらのディスクは無視され、マルチパス・ディスクがOracle ASMとしてマーク付けされるだけになります。
サーバーが起動すると、デフォルトでは、2.6カーネル・デバイス・ファイル・ネーミング・スキームのudev
によってデバイス・ファイル名が自動的に作成され、その所有権がroot
に割り当てられます。udev
でデフォルトの設定が適用される場合は、投票ディスクまたはOracle Cluster Registryパーティションのデバイス・ファイル名と所有者が変更されるため、サーバーの再起動時に内容が破損します。たとえば、ユーザーgrid
が所有する/dev/sdd
というデバイス上の投票ディスクが、サーバーの再起動後には、root
が所有する/dev/sdf
というデバイスに置かれる可能性もあります。ASMLIBを使用する場合は、udev
内で永続的な権限とデバイス・パスを指定する必要がありません。
ASMLIBを使用しない場合は、カスタム・ルール・ファイルを作成する必要があります。udev
が起動すると、ルール・ファイルに定義されたルール(構成ディレクティブ)が順次実行されます。これらのファイルは、パス/etc/udev/rules.d/
にあります。ルール・ファイルは、字句順に読み取られます。たとえば、ファイル10-wacom.rules
内にあるルールは、ルール・ファイル90-ib.rules
内にあるルールより先に解析され実行されます。
UDEVルール・ファイルにデバイス情報を指定する場合は、表示されている順に、他の特性より前にOWNER、GROUPおよびMODEが指定される必要があります。たとえば、UDEV行に特性ACTIONを含める場合、OWNER、GROUPおよびMODEの後にACTIONを指定します。
複数のルール・ファイルに同じデバイスの記述があった場合、サポートされているLinuxカーネル・バージョンでは、最後に読み取られたファイルが適用されます。
ディスク・デバイスの権限ファイルを構成するには、次の作業を行います。
既存のブロック・デバイスに関する情報を取得するには、1つのクラスタ・ノードのストレージ・デバイスでコマンドscsi_id
(/sbin/scsi_id
)を実行し、一意のデバイス識別子を取得します。-s
引数を付けてscsi_id
コマンドを実行する場合、渡されるデバイス・パスおよび名前は、/sys/block/device
を参照するときのsysfs
ディレクトリ/sys
に対する相対パスである必要があります(/block/device
など)。次に例を示します。
# /sbin/scsi_id -g -s /block/sdb/sdb1 360a98000686f6959684a453333524174 # /sbin/scsi_id -g -s /block/sde/sde1 360a98000686f6959684a453333524179
必要時に指定できるように、クラスタウェア・デバイスの一意のSCSI識別子を記録します。
注意: コマンドscsi_id は、どのノードでコマンドが実行されるかにかかわらず、指定されたデバイスで同じデバイス識別子値を戻す必要があります。 |
/etc/scsi_id.config
ファイルを編集し、options=-g
を追加することで、SCSIデバイスを信頼できるデバイス(ホワイト・リスト)として構成します。次に例を示します。
# cat > /etc/scsi_id.config vendor="ATA",options=-p 0x80 options=-g
テキスト・エディタを使用してOracle ASMデバイス用のUDEVルール・ファイルを作成し、インストール所有者と、メンバーがOracle Grid Infrastructureソフトウェアの管理者であるグループの権限を0660に設定します。たとえば、インストール所有者grid
を使用し、さらにOSASMグループasmadmin
によるロール・ベースのグループ構成を使用します。
# vi /etc/udev/rules.d/99-oracle-asmdevices.rules KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id", RESULT=="14f70656e66696c00000000", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id", RESULT=="14f70656e66696c00000001", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd?3", BUS=="scsi", PROGRAM=="/sbin/scsi_id", RESULT=="14f70656e66696c00000002", OWNER="grid", GROUP="asmadmin", MODE="0660"
rules.d
ファイルを、クラスタ上の他のすべてのノードにコピーします。次に例を示します。
# scp 99-oracle-asmdevices.rules root@node2:/etc/udev/rules.d/99-oracle-asmdevices.rules
/sbin/partprobe
devicename
を使用して、更新されたブロック・デバイス・パーティション表をクラスタのすべてのメンバー・ノードにロードします。 この操作は、root
で行う必要があります。
コマンドudevtest
(/sbin/udevtest
)を実行して、作成したUDEVルール構成をテストします。ブロック・デバイスが使用可能で、ルールが予想どおりに適用されたことが出力されます。次に例を示します。
# udevtest /block/sdb/sdb1 main: looking at device '/block/sdb/sdb1' from subsystem 'block' udev_rules_get_name: add symlink 'disk/by-id/scsi-360a98000686f6959684a453333524174-part1' udev_rules_get_name: add symlink 'disk/by-path/ip-192.168.1.1:3260-iscsi-iqn.1992-08.com.netapp:sn.887085-part1' udev_node_mknod: preserve file '/dev/.tmp-8-17', because it has correct dev_t run_program: '/lib/udev/vol_id --export /dev/.tmp-8-17' run_program: '/lib/udev/vol_id' returned with status 4 run_program: '/sbin/scsi_id' run_program: '/sbin/scsi_id' (stdout) '360a98000686f6959684a453333524174' run_program: '/sbin/scsi_id' returned with status 0 udev_rules_get_name: rule applied, 'sdb1' becomes 'ocr1' udev_device_event: device '/block/sdb/sdb1' validate currently present symlinks udev_node_add: creating device node '/dev/ocr1', major = '8', minor = '17', mode = '0640', uid = '0', gid = '500' udev_node_add: creating symlink '/dev/disk/by-id/scsi-360a98000686f6959684a453333524174-part1' to '../../ocr1' udev_node_add: creating symlink '/dev/disk/by-path/ip-192.168.1.1:3260-iscsi-iqn.1992-08.com.netapp:sn.84187085 -part1' to '../../ocr1' main: run: 'socket:/org/kernel/udev/monitor' main: run: '/lib/udev/udev_run_devd' main: run: 'socket:/org/freedesktop/hal/udev_event' main: run: '/sbin/pam_console_apply /dev/ocr1 /dev/disk/by-id/scsi-360a98000686f6959684a453333524174-part1 /dev/disk/by-path/ip-192.168.1.1:3260-iscsi-iqn.1992-08.com.netapp:sn.84187085- part1'
出力例では、ルールを適用することでOCRデバイス/dev/ocr1
の名前が/dev/sdb1
に変更されることに注意してください。
UDEVサービスを再起動するコマンドを入力します。
Asianux、Oracle Linux 5およびRHEL5の場合、コマンドは次のとおりです。
# /sbin/udevcontrol reload_rules # /sbin/start_udev
SUSE 10および11の場合、コマンドは次のとおりです。
# /etc/init.d boot.udev restart
次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle Automatic Storage Management (Oracle ASM)の記憶域の構成について説明します。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle ASMは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
Oracle ACFSは、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)11gリリース2(11.2)のインストールの一部として、インストールされます。
ASMCAを使用して、ACFSの汎用ファイル・システム構成を作成することもできます。
Oracle RACデータベース用にOracle Databaseホーム用のOracle ACFSを構成するには、次の手順を実行します。
クラスタ用Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)をインストールします。
Oracle Grid Infrastructureホームに移動します。次に例を示します。
$ cd /u01/app/11.2.0/grid
Oracle Grid Infrastructureインストール所有者が、使用するストレージ・マウント・ポイントに対する読込みおよび書込み権限を持っていることを確認します。たとえば、マウント・ポイント/u02/acfsmounts/
を使用する場合は次のようになります。
$ ls -l /u02/acfsmounts
Gridインストールの所有者として、Oracle ASM Configuration Assistantを起動します。次に例を示します。
./asmca
「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。「ASMクラスタ・ファイルシステム」タブをクリックします。
「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択します。
「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。
データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。この名前は、組織で一意である必要があります。たとえば、dbase_01
とします。
データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。たとえば、/u02/acfsmounts/dbase_01
とします。
後で参照するために、このマウント・ポイントを書き留めます。
データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。
データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を入力します。たとえば、oracle
1とします
データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを入力します。このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与されます。たとえば、dba1
とします。
入力が完了したら、「OK」をクリックします。
特権ユーザー(root
)として、Oracle ASM Configuration Assistantによって生成されたスクリプトを実行します。Oracle Clusterware環境では、Oracle Clusterwareによって管理されるリソースとしてACFSが登録されます。リソースとしてACFSを登録することによって、ACFSがOracle RACデータベース・ホームに使用される場合に、Oracle ClusterwareがACFSを適切な順序で自動的にマウントできるようになります。
Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイント」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01
)。
関連項目: Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home
/bin
にあるOracle Automatic Storage Managementコンフィギュレーション・アシスタント(ASMCA)を使用して、既存のOracle ASMインスタンスをOracle ASM 11gリリース2(11.2)にアップグレードし、その後で障害グループ、Oracle ASMボリュームおよびOracle Automatic Storage Managementクラスタ・ファイル・システム(ACFS)を構成できます。
注意: 既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。 |
インストール時、11.2より前のOracle ASMリリースからアップグレードしていて、Oracle ASMを使用することを選択し、以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 11gリリース2(11.2)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。次に、Oracle ASMボリュームを作成し、アップグレードしたOracle ASMを使用してOracle ACFSを作成することで、Oracle ACFSのデプロイメントを構成できます。
Oracle ASM 11gリリース2(11.2.0.1)以上からアップグレードしている場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。リリース11.2.0.1から11.2.0.2では、ASMCAがOracle ASMを個別にアップグレードすることはできません。
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。Oracle ASMは、すべてのノードで11gリリース2(11.2)にアップグレードされます。
Oracle DatabaseおよびOracle RAC 11gリリース2(11.2)では、Database Configuration Assistantまたはインストーラを使用して、ブロック・デバイスまたはRAWデバイス上にOracle ClusterwareまたはOracle Databaseファイルを格納する処理がサポートされなくなりました。
既存のOracle RACデータベースをアップグレードする場合、またはOracle ASMインスタンスを使用するOracle RACデータベースをアップグレードする場合は、既存のRAWデバイスまたはブロック・デバイスのパーティションを使用して、既存のインストールをローリング・アップグレードできます。ブロック・デバイスまたはRAWデバイスを使用した、新しいインストールは実行できません。
また、IBM: Linux on System zブロック・デバイスで、必要なパーティションが1つのみの場合(ASMファイル管理用のパーティションを作成する場合など)、-d ldl
オプションを指定して、Linuxディスク・レイアウトを使用したDASDをフォーマットすることもできます。このディスク・レイアウトを使用すると、DASDのパーティション・デバイス名は/dev/dasd
xxxx
1
となります。
IBM: Linux on System zでは、Oracle ClusterwareおよびAutomatic Storage Managementファイル用にRAW論理ボリューム・マネージャ(LVM)・ボリュームを使用できます。直接アクセス記憶装置(DASD)またはSCSIデバイス上のボリューム・グループに、必要なRAW論理ボリュームを作成できます。必要なRAW論理ボリュームを構成するには、次の手順を実行します。
注意: LinuxでFBAタイプのDASDをフォーマットする必要はありません。FBAタイプのDASDに対する単一のディスク全体パーティションのデバイス名は、/dev/dasd xxxx 1 です。 |
必要に応じて、ディスク・グループに使用する共有DASDをインストールまたは構成し、システムを再起動します。
次のコマンドを入力して、システムで構成されたDASDを確認します。
# more /proc/dasd/devices
このコマンドの出力結果には、次のような行が含まれます。
0302(ECKD) at ( 94: 48) is dasdm : active at blocksize: 4096, 540000 blocks, 2109 MB
これらの行では、各DASDの次の情報が表示されます。
デバイス番号(0302)
デバイス・タイプ(ECKD
またはFBA
)
Linuxデバイスのメジャー番号およびマイナー番号(94: 48
)
Linuxデバイスのファイル名(dasdm
)
通常、DASDのデバイス名は、dasd
xxxx
という形式で、xxxx
は、デバイスを識別する1から4文字の文字列です。
ブロック・サイズおよびデバイス・サイズ
表示内容から、使用するデバイスを特定します。
表示されたデバイスがFBAタイプのDASDの場合、それらを構成する必要はありません。Oracle Databaseファイルへのバインド手順に進むことができます。
ECKDタイプのDASDを使用する場合は、次のようなコマンドを入力して、DASDをフォーマットします(まだフォーマットされていない場合)。
# /sbin/dasdfmt -b 4096 -f /dev/dasdxxxx
注意: DASDをフォーマットすると、デバイス上のすべての既存のデータが破壊されます。次のことを確認してください。
|
このコマンドは、4KBのブロック・サイズと互換ディスク・レイアウト(デフォルト)でDASDをフォーマットし、DASD上に最大3つのパーティションを作成できます。
SCSIデバイス上にRAW論理ボリュームを作成する場合は、手順5に進みます。
DASDにRAW論理ボリュームを作成する場合に、DASDを互換ディスク・レイアウトでフォーマット済であれば、パーティションの作成方法を決定します。
デバイスに単一のディスク全体パーティションを作成するには(たとえば、データベース・ファイル用として1つのRAW論理ボリューム全体に1つのパーティションを作成するには)、次のようなコマンドを入力します。
# /sbin/fdasd -a /dev/dasdxxxx
このコマンドは、ディスク全体で1つのパーティションを作成します。これで、デバイスを物理ボリュームとしてマークできる状態になります。手順6に進みます。
デバイス上に最大3つのパーティションを作成するには(たとえば、個々の表領域用にパーティションを作成するには)、次のようなコマンドを入力します。
# /sbin/fdasd /dev/dasdxxxx
パーティションの作成時に、次のガイドラインを使用します。
p
コマンドを使用して、デバイスのパーティション表をリストします。
n
コマンドを使用して、新しいパーティションを作成します。
このデバイスに必要なパーティションを作成した後、w
コマンドを使用して、変更されたパーティション表をデバイスに書き込みます。
パーティションの作成方法の詳細は、fdasd
のマニュアル・ページを参照してください。
DASD上のパーティションには次のようなデバイス名があり、n
は、1から3のパーティション番号です。
/dev/dasdxxxxn
パーティションの作成が完了すると、デバイスを物理ボリュームとしてマークできる状態になります。手順6に進みます。
ボリューム・グループのSCSIデバイスを使用する場合は、次の手順を実行します。
次のようなコマンドを入力して、ボリューム・グループで使用する各デバイスを物理ボリュームとしてマークします。
SCSIデバイスの場合:
# pvcreate /dev/sda1 /dev/sdb1
DASDデバイスの場合:
# pvcreate /dev/dasda1 /dev/dasdb1
マークしたデバイスを使用してoracle_vg
というボリューム・グループを作成するには、次のようなコマンドを入力します。
SCSIデバイスの場合:
# vgcreate oracle_vg /dev/sda1 /dev/sdb1
DASDデバイスの場合:
# vgcreate oracle_vg /dev/dasda1 /dev/dasdb1
作成したボリューム・グループに必要な論理ボリュームを作成するには、次のようなコマンドを入力します。
# lvcreate -L size -n lv_name vg_name
この例の意味は次のとおりです。
size
は、論理ボリュームのサイズ(たとえば、500M
)
lv_name
は、論理ボリュームの名前(たとえば、orcl_system_raw_500m
)
vg_name
は、ボリューム・グループの名前(たとえばoracle_vg
)
たとえば、oracle_vg
ボリューム・グループのrac
というデータベースのSYSTEM表領域用に500MBの論理ボリュームを作成するには、次のコマンドを入力します。
# lvcreate -L 500M -n rac_system_raw_500m oracle_vg
注意: これらのコマンドは、各論理ボリュームに対して次のようなデバイス名を作成します。/dev/vg_name/lv_name |
他のクラスタ・ノードでは、次のコマンドを入力して、すべてのボリューム・グループをスキャンし、それをアクティブにします。
# vgscan # vgchange -a y