| Oracle® Grid Infrastructureインストレーション・ガイド 11gリリース2 (11.2) for IBM AIX on POWER Systems (64-Bit) B57777-08 |
|
![]() 前 |
![]() 次 |
この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management (Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。
この章の内容は次のとおりです。
この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。内容は次のとおりです。
|
関連項目: 動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
|
Oracle Clusterwareファイルの格納には、次の2つの方法があります。
Oracle Automatic Storage Management(Oracle ASM): Oracle Clusterwareファイル(OCRおよび投票ディスク)をOracle ASMのディスク・グループにインストールできます。
標準インストールとStandard EditionのOracle RACインストールにおいて、Oracle ASMは必須のデータベース記憶域オプションです。それは、Oracle ClusterwareとOracle Databaseファイル用の、統合された高性能のデータベース・ファイル・システムおよびディスク・マネージャです。データベース・ファイルのストライプ化およびミラー化を自動的に実行します。
ノード上のデータベース・インスタンスの数に関係なく、各ノードに許可されるOracle ASMインスタンスは1つのみです。
サポートされている共有ファイル・システム: サポートされているファイル・システムには、次のものがあります。
General Parallel File System(GPFS): 同時ファイル・アクセスを提供するAIXのクラスタ・ファイル・システム
サポートされているクラスタ・ファイル・システム:データ・ファイルにクラスタ・ファイル・システムを使用する場合、Oracle Clusterware用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。
|
関連項目: サポートされているクラスタ・ファイル・システムについては、My Oracle Supportの「動作保証」ページを参照してください。 |
ネットワーク・ファイル・システム(NFS): データ・ファイルにNFSを使用する場合、Oracle Grid Infrastructure用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。NFSマウントは、ソフトウェア・バイナリ、Oracle Clusterwareファイル、データベース・ファイルで、それぞれ異なります。
|
注意: OUIを使用して、Oracle ClusterwareやOracle DatabaseのファイルをRAWディスクにインストールすることはできなくなりました。 |
|
関連項目: サポートされているファイル・システムと、NFSまたはNASファイラについては、My Oracle Supportを参照してください。 |
Oracle9i リリース9.2のOracle RAC環境をOracle Database 11g リリース2(11.2)にアップグレードする際、Oracle Clusterwareのインストール時に、1つ以上の投票ディスクを指定するよう求められます。Oracle Database 11g リリース1(11.1)の投票ディスクの位置を新しく指定する必要があります。この目的で、古いOracle9i リリース9.2の定数ディスクを再利用することはできません。
ディスクの記憶域オプションを決定したら、次の作業をここに示す順序どおりに実行する必要があります。
1: Oracle Clusterwareファイル用の共有記憶域の構成
Oracle Clusterwareファイルにファイル・システム(ローカルまたはGPFS)を使用する場合: 「共有ファイル・システムの記憶域の構成」を参照してください。
2: Oracle Databaseファイルおよびリカバリ・ファイル用の記憶域の構成
データベース・ファイルまたはリカバリ・ファイル記憶域にファイル・システムを使用する場合: 第3.2項「共有ファイル・システムの記憶域の構成」を参照してください。また、Oracle Clusterwareファイル用に作成するボリュームの他に、データベース・ファイルを格納するために十分なサイズのボリュームをさらに作成する必要があります。
Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)は、汎用のファイル・システムです。このシステムにはOracle Databaseバイナリを配置できますが、Oracleデータ・ファイルやOracle Clusterwareファイルを配置することはできません。Oracle ACFSの次の点に注意してください。
Oracle Restartは、rootベースのOracle Clusterwareリソースをサポートしません。このため、Oracle Restart構成でOracle ACFSを実行する場合は、次の制限が適用されます。
Oracle ACFSドライバは手動でロードおよびアンロードする必要があります。
Oracle ASMインスタンスの起動後、Oracle ACFSファイル・システムを手動でマウントおよびマウント解除する必要があります。
他の登録済Oracle ACFSファイル・システムとともに、Oracle ACFSマウント・レジストリにOracle ACFSデータベース・ホーム・ファイル・システムを配置できます。
Oracle ClusterwareのバイナリおよびファイルをOracle ACFSに配置することはできません。
Oracle DatabaseファイルをOracle ACFSに配置することはできません。
Oracle ACFSは、他のファイルのための汎用ファイル・システムとなります。
|
注意: AIXでは、Oracle ACFSに次のインストール要件があります。
|
すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clustersデータベース(Oracle RAC)に使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にするには、リカバリ・ファイル(高速リカバリ領域)に使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。
Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が格納されます。投票ディスクとOCRファイルは、ASMディスク・グループ、クラスタ・ファイル・システム、共有ネットワーク・ファイル・システムのいずれかに配置できます。記憶域は共有される必要があります。構成されている投票ディスクの大半(過半数)が利用できないノードは再起動されます。
次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMを選択することをお薦めします。
Standard EditionのOracle RACインストールでは、データベース・ファイルまたはリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。
Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 11gリリース2(11.2)がインストールされている。
クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。
RAWディスクは、構成済のディスクを使用している既存のインストールをアップグレードする場合のみ、サポートされます。新規インストールでのディスクの使用は、Oracle Automatic Storage Management Configuration Assistant(ASMCA)やOracle Universal Installer(OUI)ではサポートされていません。ただし、手動で構成を行えば、ソフトウェアでサポートされます。
|
関連項目: 既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。 |
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle Grid Infrastructureのインストール時に、ディスク・グループを1つ作成できます。Oracle Grid Infrastructureのインストール後は、ASMCA、SQL*PlusまたはASMCMDを使用して追加のディスク・グループを作成できます。Oracle Database 11gリリース2(11.2)以上では、Oracle Database Configuration Assistant(DBCA)にOracle ASMのディスク・グループを作成する機能がないことに注意してください。
Oracle Grid Infrastructureのインストール後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ディスク・ファイルに同じディスク・グループを使用することも、別のディスク・グループを使用することもできます。Oracle RACをインストールする前、またはデータベースを作成する前に複数のディスク・グループを作成すると、次のいずれかを実行できます。
Oracle Clusterwareファイルと同じディスク・グループにデータ・ファイルを置きます。
データ・ファイルとリカバリ・ファイルに同じOracle ASMディスク・グループを使用します。
ファイル・タイプごとに別のディスク・グループを使用します。
ストレージとして1つのディスク・グループを作成した場合は、OCRおよび投票ディスク・ファイル、データベース・ファイル、リカバリ・ファイルはそのディスク・グループに格納されます。複数のディスク・グループを作成した場合は、ファイルを別のディスク・グループに格納することもできます。
|
注意: 既存ディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行する必要があります。 |
|
関連項目: ディスク・グループの作成の詳細は、『Oracle Databaseストレージ管理者ガイド』を参照してください。 |
Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。これは、使用するボリューム・マネージャが特定のベンダー・クラスタ・ソリューションとともに提供されることを意味します。使用するボリュームがサポートされていることを確認するには、My Oracle Supportの「動作保証」タブで、関連するクラスタ・ソリューションがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。
https://support.oracle.com
次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。
表3-1 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
次のガイドラインに従って、記憶域オプションを選択します。
ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。
ファイル・システムを使用する場合は、第3.2項「共有ファイル・システムの記憶域の構成」を参照してください。
Oracle Automatic Storage Managementを使用する場合は、第3.3項「Oracle Automatic Storage Managementの記憶域の構成」を参照してください。
インストーラでは、Oracle Cluster Registry(OCR)またはOracle Clusterware投票ディスク用のデフォルトの格納先は提供されません。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。
クラスタ・ファイル・システムを使用するには、サポートされているクラスタ・ファイル・システムである必要があります。サポートされているクラスタ・ファイル・システムのリストは、My Oracle Support(https://support.oracle.com)を参照してください。
NFSファイル・システムを使用するには、サポートされているNASデバイス上にある必要があります。My Oracle Supportにログインし、「動作保証」タブをクリックして、サポートされているNASデバイスの最新情報を調べます。
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置するように選択する場合は、次のいずれかに該当していることが推奨されます。
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
2つ以上のファイル・システムが別々のディスクにマウントされていて、Oracle Clusterware 11g リリース2(11.2)の機能を使用してOCRに冗長性を提供している。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
インストールを実行するユーザー・アカウント(oracleまたはgrid)には、指定したパスにファイルを作成するための書込み権限が必要です。
表3-2と表3-3を使用して、共有ファイル・システムの最小サイズを決定します。
表3-2 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件
| 格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
|---|---|---|
|
外部冗長で作成された投票ディスク |
1 |
投票ディスク・ボリュームごとに300MB以上 |
|
外部冗長で作成されたOracle Cluster Registry(OCR) |
1 |
OCRボリュームごとに300MB以上 |
|
Oracleソフトウェア提供の冗長で作成されたOracle Clusterwareファイル(OCRおよび投票ディスク) |
3 |
OCRボリュームごとに300MB以上 投票ディスク・ボリュームごとに300MB以上 |
表3-3 Oracle RAC共有ファイル・システムのボリューム・サイズ要件
| 格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
|---|---|---|
|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
|
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表3-2および表3-3で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。投票ディスクおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で5.5GB以上の利用可能な記憶域が必要です。
|
注意: +300Mなどのデバイス・サイズを指定して、fdiskで共有パーティション上にパーティションを作成すると、ディスクのシリンダ・ジオメトリに基づいて、作成した実際のデバイスが要求したサイズより小さくなる場合があります。これは、現在のfdiskにおける制限事項が原因です。Oracle ASMで使用するために割り当てたディスク全体をパーティション化することをお薦めします。 |
新規インストールの場合は、Oracle Automatic Storage Management (Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めします。
カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。
Oracle Database 11gリリース2 (11.2)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。
Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでNFSマウントが管理されます。
NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
ポート範囲を制限するNFSサーバーの場合、rootでNFSサーバーに接続するのではなく、insecureオプションを使用してクライアントを有効化できます。または、第3.2.16項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。
Direct NFSクライアントを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。oranfstabファイルは、/etcまたは$ORACLE_HOME/dbsのいずれかに追加できます。
共有Oracleホームでは、oranfstabファイルが$ORACLE_HOME/dbsに格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstabファイルが使用されます。共有されていないOracle RACインストールでは、oranfstabをすべてのノードにコピーする必要があります。
oranfstabファイルが/etcに格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstabファイルが/etcに格納されている場合、/etc/fstabファイルの場合と同様に、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。
マウント・ポイントがDirect NFSクライアントを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。
Direct NFSクライアントでは、/etc/mtabの構成に基づいてNFSストレージ・デバイスに対するマウント・ポイントの設定を判断します(これは、/etc/fstabファイルを構成することによって変更できます)。
Direct NFSクライアントでは、次の順序でマウント・エントリが検索されます。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/mtab
Direct NFSでは、最初に検出された一致エントリが使用されます。
Oracle Databaseのデフォルトの設定では、ダイレクトNFSは有効ではありません。Direct NFSクライアントを有効にするには、次の手順を実行します。
$ORACLE_HOME/rdbms/libディレクトリに移動します。
次のコマンドを入力します。
make -f ins_rdbms.mk dnfs_on
|
注意: インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。 |
Oracle Databaseでoranfstabを使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSクライアントでは、情報メッセージを記録し、動作しません。
Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSのマウント・オプションが第3.2.8項「Oracle Clusterware用のRAW論理ボリュームの構成」で説明するように設定されている必要があります。また、ダイレクトNFSクライアントがNFSサーバーに接続できなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。
第3.1.6項「サポートされている記憶域オプション」に、Direct NFSクライアントでサポートされているファイル・タイプを示します。
Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。
|
関連項目: Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Database管理者ガイド』を参照してください。 |
Direct NFSクライアントでは、NFSサーバー用のoranfstabファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSを管理するには、次のSQL*Plusのビューを使用します。
gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。
gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。
gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。
|
注意: シングル・インスタンスにはv$ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ビューを使用します。 |
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。
そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。
GridホームまたはOracle RACホームにNFSを使用している場合、記憶域にNFSマウントを設定する必要があり、こうすることで、記憶域にマウントしているクライアントのrootが、匿名ユーザーにマップされるかわりにrootと見なされ、クライアント・サーバーのrootが、NFSファイル・システム上にroot所有のファイルを作成できるようにします。
NFSを使用している場合は、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。 バイナリのNFSマウント・オプションは次のとおりです。
rw,bg,hard,nointr,rsize=32768,wsize=32768,proto=tcp,vers=3,timeo=600
Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。
cio,rw,bg,hard,intr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600
Oracle Databaseデータ・ファイルのNFSクライアント側のマウント・オプションは次のとおりです。
cio,rw,bg,hard,nointr,rsize=32768,wsize=32768,proto=tcp,noac,vers=3,timeo=600
各ノードの/etc/filesystemsファイルを次のエントリで更新します。
/NFS_mount: dev = "/vol/gridhome" vfs = nfs nodename = /vol/gridhome mount = true options = rw,bg,hard,nointr,rsize=32768,wsize=32768,proto=tcp,vers=3,timeo=600 account = false /NFS_mount: dev = "/vol/CWfiles" vfs = nfs nodename = /vol/CWfiles mount = true options = cio,rw,bg,hard,intr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600 account = false /NFS_mount: dev = "/vol/datafiles" vfs = nfs nodename = /u02/app/oracle/data mount = true options = cio,rw,bg,hard,nointr,rsize=32768,wsize=32768,proto=tcp,noac,vers=3,timeo=600 account = false
Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成する場合は、バイナリ・マウント・ポイントに次の行を入力します。
nfs_server:/vol/grid /u01/oracle/grid nfs -yes
rw,bg,hard,nointr,rsize=32768,wsize=32768,proto=tcp,vers=3,timeo=600
NFSでは、サーバー側でno_root_squashを有効にすることで、記憶域に書込みを行うクライアントにrootアクセス権を取得できます。たとえば、ドメインmycluster.example.comのノードnode1、node2、node3について、パス/vol/gridのOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/exportsファイルに追加します。
/vol/grid/ node1.mycluster.example.com(rw,no_root_squash) node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com (rw,no_root_squash)
ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにrootアクセス権を付与します。
次に例を示します。
/vol/grid/ *.mycluster.example.com(rw,no_root_squash)
この構文を使用すると、NFSサーバーの再構成を行うことなくノードの追加や削除を行えます。セキュアなDNSまたはドメインを使用して、そのドメインを利用するクラスタ・メンバー・ノードにrootアクセス権を付与することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。
|
注意: ドメイン単位でrootアクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、no_root_squashの使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。 |
/etc/exportsを変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。
# /usr/sbin/exportfs -avr
|
関連項目: マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。 |
|
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
Direct NFSクライアントを有効にするには、次の手順を実行します。
Direct NFSクライアントを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstabファイルを作成します。
サーバー: NFSサーバー名。
ローカル: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパス。データベース・ホスト上でifconfigコマンドを使用して表示できます。
パス: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パス。NFSサーバー上でifconfigコマンドを使用して表示できます。
エクスポート: NFSサーバーからエクスポートされたパス。
マウント: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。
マウント・タイムアウト: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600)です。
ルーティング不可: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、バインドされたIPアドレスを使用して送信するよう指定します。
この後の例では、oranfstabのNFSサーバー・エントリを3種類示しています。1つのoranfstabに、複数のNFSサーバー・エントリを含めることができます。
例3-1 ローカルおよびパスのNFSサーバー・エントリを使用
次の例では、ローカルとパスの両方を使用しています。それぞれが異なるサブネットにあるため、dontrouteを指定する必要がありません。
server: MyDataServer1 local: 192.0.2.0 path: 192.0.2.1 local: 192.0.100.0 path: 192.0.100.1 export: /vol/oradata1 mount: /mnt/oradata1
例3-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)
次の例では、同一サブネット内のローカルおよびパスを示しています。ここではdontrouteが指定されています。
server: MyDataServer2 local: 192.0.2.0 path: 192.0.2.128 local: 192.0.2.1 path: 192.0.2.129 dontroute export: /vol/oradata2 mount: /mnt/oradata2
例3-3 IPアドレスのかわりに名前を使用(複数のエクスポート)
server: MyDataServer3 local: LocalPath1 path: NfsPath1 local: LocalPath2 path: NfsPath2 local: LocalPath3 path: NfsPath3 local: LocalPath4 path: NfsPath4 dontroute export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5 export: /vol/oradata6 mount: /mnt/oradata6
デフォルトでは、Direct NFSクライアントは無効な状態でインストールされます。Direct NFSクライアントを有効にするには、各ノードで次の手順を完了します。共有Gridホームをクラスタに使用する場合は、共有Gridホームで次の手順を完了します。
Oracle Grid Infrastructureインストール所有者としてログインします。
Grid_home/rdbms/libディレクトリに移動します。
次のコマンドを入力します。
$ make -f ins_rdbms.mk dnfs_on
|
関連項目: HACMPのデプロイメントおよび動作保証についての追加情報は、My Oracle Supportを参照してください。 |
Oracle Clusterwareの投票ディスクごとに、1つのMulti-node Disk Heartbeat(MNDHB)ネットワークを定義する必要があります。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。また、拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成する必要があります。
クラスタができるだけ分断されないように、複数のIPネットワークと1つ以上の非IPネットワークを使用してHACMPをデプロイすることをIBMは薦めています。非IPネットワークは、RS232またはディスク・ハートビートを使用して実装できます。データベースの記憶域にOracle RACおよびHACMP拡張コンカレント・リソース(拡張されたコンカレント論理ボリューム)を使用するシステムの場合は、MNDHBネットワークを構成する必要があります。
Oracle Clusterwareをインストールする前に、HACMPをインストールおよび構成し、稼働させる必要があります。Oracle RAC構成では、Oracle RACネットワーク・インタフェース(パブリック、VIPまたはプライベート)上のIPフェイルオーバーにHACMPを使用しないでください。Oracle RACのVIPフェイルオーバーは、Oracle Clusterwareによって管理されるため、これらのネットワーク・インタフェースは、HACMP IPフェイルオーバーを使用する構成にはしないでください。Oracle RACネットワーク・インタフェースは、個々のノードとOracle RACインスタンスに割り当てられます。HACMPが、異なるインタフェースでIPアドレスを再構成したり、異なるノードでアドレスをフェイルオーバーすると、Oracle Clusterwareで問題が発生する場合があります。Oracle RACノード上のIPアドレスのフェイルオーバーにHACMPを使用できるのは、Oracle RACがこれらのアドレスを使用しない場合のみです。
次の作業を完了します。イタリック体の部分は、ご使用のシステムにあわせて適切な応答に読み換えてください。または、示された操作を実行し、必要に応じて適切な応答を入力してください。
HACMPを起動します。
次のコマンドを入力して、HACMPのclcomdESデーモンが実行中であることを確認します。
# lssrc -s clcomdES
デーモンが実行されていない場合は、次のコマンドを使用して起動します。
# startsrc –s clcomdES
ご使用のHACMPとAIXのバージョンが、第2.7項「ソフトウェア要件の特定」に示されているシステム要件を満たしていることを確認します。
HACMPクラスタを作成し、Oracle Clusterwareノードを追加します。次に例を示します。
# smitty cm_add_change_show_an_hacmp_cluster.dialog
* Cluster Name [mycluster]
各Oracle Clusterwareノードに、HACMPクラスタ・ノードを作成します。次に例を示します。
# smitty cm_add_a_node_to_the_hacmp_cluster_dialog
* Node Name [mycluster_node1]
Communication Path to Node []
HACMPイーサネット・ハートビート・ネットワークを作成します。HACMP構成には、ネットワーク定義が必要です。ネットワークでIPアドレスが引き継がれるように「No」を選択します。これらのネットワークはOracle Clusterwareによって使用されるためです。
2つ以上のネットワーク定義を作成します。1つは、Oracleのパブリック・インタフェース用、もう1つはOracleのプライベート(クラスタ・インターコネクト)・ネットワーク用です。必要に応じて、さらにイーサネット・ハートビート・ネットワークを追加できます。
次に例を示します。
# smitty cm_add_a_network_to_the_hacmp_cluster_select - select ether network * Network Name [my_network_name] * Network Type ether * Netmask [my.network.netmask.here] * Enable IP Address Takeover via IP Aliases [No] IP Address Offset for Heart beating over IP Aliases []
前述の手順で追加したネットワークごとに、そのネットワークに関連付けられた各Oracle ClusterwareノードのすべてのIP名(各Oracle Clusterwareノードのパブリック、プライベートおよびVIP名)を定義します。次に例を示します。
# smitty cm_add_communication_interfaces_devices.select - select: Add Pre-defined Communication Interfaces and Devices / Communication Interfaces / desired network * IP Label/Address [node_ip_address] * Network Type ether * Network Name some_network_name * Node Name [my_node_name] Network Interface []
拡張コンカレント・ボリューム・グループのリソースに対して、次のオプションを使用してHACMPリソース・グループを作成します。
# smitty config_resource_group.dialog.custom * Resource Group Name [my_resource_group_name] * Participating Nodes (Default Node Priority) [mynode1,mynode2,mynode3] Startup Policy Online On All Available Nodes Fallover Policy Bring Offline (On Error Node Only) Fallback Policy Never Fallback
コマンド(smitty mkvg)またはコマンドラインを使用して、AIXの拡張コンカレント・ボリューム・グループ(Big VGまたはScalable VG)を作成します。ボリューム・グループには、各投票ディスク用に1つ以上のハード・ディスクが含まれている必要があります。3つ以上の投票ディスクを構成する必要があります。
次の例のdefaultは、デフォルトの応答をそのまま使用することを示しています。
# smitty _mksvg VOLUME GROUP name [my_vg_name] PP SIZE in MB * PHYSICAL VOLUME names [mydisk1,mydisk2,mydisk3] Force the creation of a volume group? no Activate volume group AUTOMATICALLY no at system restart? Volume Group MAJOR NUMBER [] Create VG Concurrent Capable? enhanced concurrent Max PPs per VG in kilobytes default Max Logical Volumes default
「Change/Show Resources for a Resource Group (standard)」で、前述の手順で追加したリソース・グループに対するコンカレント・ボリューム・グループを追加します。
次に例を示します。
# smitty cm_change_show_resources_std_resource_group_menu_dmn.select - select_resource_group_from_step_6 Resource Group Name shared_storage Participating Nodes (Default Node Priority) mynode1,mynode2,mynode3 Startup Policy Online On All Available Nodes Fallover Policy Bring Offline (On Error Node Only) Fallback Policy Never Fallback Concurrent Volume Groups [enter_VG_from_step_7] Use forced varyon of volume groups, if necessary false Application Servers []
次のコマンドを使用して、Oracle Clusterwareの投票ディスクごとに1つのMNDHBネットワークが定義されていることを確認します。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。MNDHBネットワークと投票ディスクは、HACMPが管理する拡張コンカレント論理ボリュームの共有論理ボリュームに、拡張コンカレント・リソースとして存在します。投票ディスクの論理ボリューム(LV)を配置するために手順6で作成したボリューム・グループにあるハード・ディスクごとにMNDHB論理ボリュームを作成します。
# smitty cl_add_mndhb_lv - select_resource_group_defined_in_step_6 * Physical Volume name enter F4, then select a hard disk Logical Volume Name [] Logical Volume Label [] Volume Group name ccvg Resource Group Name shared_storage Network Name [n]
|
注意: Oracle Clusterwareの投票ディスクに使用する論理ボリュームを定義する際は、同じディスクに定義する必要があります(各ディスクに1つ)。このMNDHB論理ボリュームの手順と同様です。 |
拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成します。次に例を示します。
# smitty cl_set_mndhb_response
- select_the_VG_created_in_step_7
On loss of access Halt the node
Optional notification method []
Volume Group ccvg
HACMP構成を確認し、同期させます。次に例を示します。
# smitty cm_initialization_and_standard_config_menu_dmn - select "Verify and Synchronize HACMP Configuration"
「Would you like to import shared VG: ccvg, in resource group my_resource_group onto node: mynode to node: racha702 [Yes / No]:」というプロンプトが表示されたら「Yes」と入力します。
/usr/es/sbin/cluster/etc/rhostsファイルにHACMPクラスタ・ノードのIP名を追加します。
すべてのデータベースをバックアップした後、Oracle Cluster Registry(OCR)をバックアップします。
すべてのノードですべてのOracle RACデータベース、すべてのノード・アプリケーションおよびOracle Clusterwareを停止します。
次のコマンドを入力し、ノードを再起動したときにOracle Clusterwareを無効にします。
# crsctl disable crs
すべてのノードでHACMPを停止します。
HACMP APAR IZ01809をインストールします。APARに添付されているREADMEの指示に従います。
既存の投票ディスク論理ボリュームが別々のハード・ディスクにあり、かつこれらの各ディスクに十分な領域(MNDHB論理ボリューム用に256MB以上)があるかどうかを確認します。ある場合は、各ハード・ディスクにMNDHB論理ボリュームを作成します。ない場合は、次のコマンドを使用して、別々のハード・ディスクにMNDHB論理ボリュームと投票ディスクを新しく作成します。イタリック体の部分は、ご使用のシステムに合わせて適切に読み換えてください。
# smitty cl_add_mndhb_lv - Select_resource_group * Physical Volume name Enter F4, then select disk for the MNDHB and Voting Disk pair Logical Volume Name [] Logical Volume Label [] Volume Group name ccvg Resource Group Name shared_storage Network Name [net_diskhbmulti_01]
HACMP構成を確認し、同期させます。
すべてのノードでHACMPを起動します。
手順5で投票ディスク用に論理ボリュームを新しく追加した場合は、既存の投票ディスクを新しいディスクに置き換えます。
次のコマンドを入力して、Oracle Clusterwareを再度有効にします。
# crsctl enable crs
すべてのノードのOracle Clusterwareを起動し、すべてのリソースが適切に起動することを確認します。
|
注意: Oracle ClusterwareにRAW論理ボリュームを使用するには、すべてのクラスタ・ノードにHACMPをインストールおよび構成する必要があります。 |
この項では、Oracle Clusterwareおよびデータベース・ファイル記憶域用にRAW論理ボリュームを構成する方法について説明します。この項では、両方のファイル・タイプに必要な論理ボリュームを含む新しいボリューム・グループを作成する手順を説明します。
続行する前に、今回のリリースのOracle RACでボリューム・グループを使用する場合の重要な情報が含まれている次のガイドラインを確認してください。
Oracle Clusterwareには、コンカレント対応のボリューム・グループを使用する必要があります。
Oracle Clusterwareファイルには、560MB未満のディスク領域(外部冗長を使用)が必要です。ボリューム・グループのディスク領域を効率的に使用するには、Oracle Clusterwareファイルおよびデータベース・ファイルの両方で、論理ボリュームに同じボリューム・グループを使用することをお薦めします。
RAW論理ボリュームを使用する既存のOracle9iリリース2のOracle RACインストールをアップグレードする場合は、OCR用の既存のSRVM構成リポジトリ論理ボリュームを使用し、同じボリューム・グループにOracle Clusterware投票ディスク用の新しい論理ボリュームを作成できます。ただし、Oracle Clusterwareをインストールする前に、このボリューム・グループをアクティブ化するHACMPのコンカレント・リソース・グループからこのボリューム・グループを削除しておく必要があります。
|
関連項目: コンカレント・リソース・グループからのボリューム・グループの削除については、HACMPのドキュメントを参照してください。 |
|
注意: データベースをアップグレードする場合は、SYSAUX表領域用に新しい論理ボリュームも作成する必要があります。Oracle Clusterware投票ディスクおよびSYSAUX論理ボリュームの要件の詳細は、「新しいOracle Clusterwareボリューム・グループへのRAW論理ボリュームの構成」を参照してください。 |
データベース・ファイルのみを含む(Oracle Clusterwareファイルは含まない)新しいボリューム・グループまたは既存のボリューム・グループをアクティブ化するには、HACMPのコンカレント・リソース・グループを使用する必要があります。
|
関連項目: 新規または既存のコンカレント・リソース・グループへのボリューム・グループの追加については、HACMPのドキュメントを参照してください。 |
Oracle Clusterwareに使用するすべてのボリューム・グループは、インストールを開始する前に、コンカレント・モードでアクティブ化する必要があります。
この項では、基本的なボリューム・グループとボリュームを作成する手順について説明します。ミラー化を使用するなど、より複雑なボリュームを構成する場合は、この項とともにHACMPのドキュメントも参照してください。
新しいOracle Clusterwareボリューム・グループに必要なRAW論理ボリュームを作成するには、次の手順を実行します。
必要に応じて、コマンドsmit mklvを使用し、RAW論理ボリュームを作成することもできます。
次の例は、物理パーティション・サイズが114MB(1792/7 = 256)の場合に、SYSAUX表領域用の論理ボリュームをocrボリューム・グループに作成するために使用するコマンドを示しています。
# /usr/sbin/mklv -y test_sysaux_raw_1792m -T O -w n -s n -r n ocr 7
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
|
注意: Oracle Cluster Registryに関連付けられるデバイス・ファイルは、rootが所有する必要があります。その他のすべてのデバイス・ファイルは、Oracleソフトウェア所有者ユーザー(oracle)が所有する必要があります。 |
# chown oracle:dba /dev/rora_vote_raw_280m # chmod 660 /dev/rora_vote_raw_280m # chown root:oinstall /dev/rora_ocr_raw_280m # chmod 640 /dev/rora_ocr_raw_280m
Oracleデータベース・ファイル用のボリューム・グループを作成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。
# /usr/sbin/lspv
このコマンドの出力結果は、次のようになります。
hdisk0 0000078752249812 rootvg hdisk1 none none hdisk4 00034b6fd4ac1d71 ccvg1
このコマンドは、各ディスクについて次の内容を示します。
ディスク・デバイス名
16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone
ディスクが属しているボリューム・グループまたはnone
使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。
ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。
# ls -la /dev | more
このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。
crw-rw---- 1 root system 45, 0 Jul 19 11:56 vg1
この例では、45はvg1ボリューム・グループ・デバイスのメジャー番号です。
クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。
次のコマンドを入力するか、またはSMIT(smit mkvg)を使用して、ボリューム・グループを作成します。
# /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \ -C PhysicalVolumes
次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvgのマニュアル・ページを参照してください。
| コマンド・オプション | SMITフィールド | サンプル値および説明 |
|---|---|---|
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。 |
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。 |
-B |
Create a big VG format Volume Group | ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
-s PPsize
|
Physical partition SIZE in megabytes |
32データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB * 1016)のディスクを含めることができます。 |
-V Majornum
|
Volume Group MAJOR NUMBER |
46手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。 |
-n |
Activate volume group AUTOMATICALLY at system restart | ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。
注意: SMITを使用している場合、このフィールドは「no」を選択します。 |
-C |
Create VG Concurrent Capable | コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
PhysicalVolumes
|
PHYSICAL VOLUME names |
hdisk3 hdisk4ボリューム・グループに追加するディスクのデバイス名を指定します。 |
次のコマンドを入力して、作成したボリューム・グループを有効にします。
# /usr/sbin/varyonvg VGname
Oracle Clusterwareファイル用のボリューム・グループを作成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。
# /usr/sbin/lspv
このコマンドの出力結果は、次のようになります。
hdisk0 0000078752249812 rootvg hdisk1 none none hdisk4 00034b6fd4ac1d71 ccvg1
このコマンドは、各ディスクについて次の内容を示します。
ディスク・デバイス名
16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone
ディスクが属しているボリューム・グループまたはnone
使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。
ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。
# ls -la /dev | more
このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。
crw-rw---- 1 root system 45, 0 Jul 19 11:56 vg1
この例では、45はvg1ボリューム・グループ・デバイスのメジャー番号です。
クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。
次のコマンドを入力するか、またはSMIT(smit mkvg)を使用して、ボリューム・グループを作成します。
# /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \ -C PhysicalVolumes
次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvgのマニュアル・ページを参照してください。
| コマンド・オプション | SMITフィールド | サンプル値および説明 |
|---|---|---|
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。 |
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。 |
-B |
Create a big VG format Volume Group | ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
-s PPsize
|
Physical partition SIZE in megabytes |
32データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB * 1016)のディスクを含めることができます。 |
-V Majornum
|
Volume Group MAJOR NUMBER |
46手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。 |
-n |
Activate volume group AUTOMATICALLY at system restart | ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。
注意: SMITを使用している場合、このフィールドは「no」を選択します。 |
-C |
Create VG Concurrent Capable | コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
PhysicalVolumes
|
PHYSICAL VOLUME names |
hdisk3 hdisk4ボリューム・グループに追加するディスクのデバイス名を指定します。 |
次のコマンドを入力して、作成したボリューム・グループを有効にします。
# /usr/sbin/varyonvg VGname
ボリューム・グループをクラスタ内のすべてのノードで使用可能にするには、次の手順に従って、各ノードにインポートする必要があります。
物理ボリューム名は他のノードでは異なる場合があるため、次のコマンドを入力して、ボリューム・グループが使用する物理ボリュームのPVIDを確認します。
# /usr/sbin/lspv
ボリューム・グループが使用する物理デバイスのPVIDを書き留めます。
ボリューム・グループを作成したノードで次のコマンドを入力し、使用するボリューム・グループを無効にします。
# /usr/sbin/varyoffvg VGname
各クラスタ・ノードで、次の手順を実行します。
次のコマンドを入力して、前述の手順で書き留めたPVIDに関連付けられている物理ボリューム名を確認します。
# /usr/sbin/lspv
クラスタの各ノードで、次のコマンドを入力し、ボリューム・グループの定義をインポートします。
# /usr/sbin/importvg -y VGname -V MajorNumber PhysicalVolume
この例では、MajorNumberはボリューム・グループのデバイスのメジャー番号、PhysicalVolumeはボリューム・グループにある物理ボリュームのうちの1つの名前です。
たとえば、hdisk3およびhdisk4物理ボリューム上のデバイスのメジャー番号45を持つoracle_vg1ボリューム・グループの定義をインポートする場合は、次のコマンドを入力します。
# /usr/sbin/importvg -y oracle_vg1 -V 45 hdisk3
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rora_vote_raw_280m # chmod 660 /dev/rora_vote_raw_280m # chown root:oinstall /dev/rora_ocr_raw_280m # chmod 640 /dev/rora_ocr_raw_280m
次のコマンドを入力して、ノードの起動時に、オペレーティング・システムによってボリューム・グループがアクティブ化されないことを確認します。
# /usr/sbin/chvg -a n VGname
すべてのクラスタ・ノードで、ボリューム・グループをコンカレント・モードでアクティブ化するには、各ノードで次のコマンドを入力します。
# /usr/sbin/varyonvg -c VGname
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。
|
注意: NFSまたはGPFS記憶域の場合、別々のファイル・システムにあるOracle ClusterwareファイルをOracleベース・ディレクトリに格納する場合にのみ、この手順を実行する必要があります。 |
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
|
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -kコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。
| ファイル・タイプ | ファイル・システムの要件 |
|---|---|
| Oracle Clusterwareファイル | 600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。 |
| データベース・ファイル | 次のいずれかを選択します。
|
| リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザーが、Oracle Clusterwareをインストールする記憶域にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
|
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
dfコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
|
注意: GPFSを使用している場合は、すべての用途に同じファイルシステムを使用できます。Oracleホーム・ディレクトリとしての使用や、データ・ファイルやログの格納などです。パフォーマンスを最適にするために、GPFSのブロック・サイズは大きくする必要があります(通常は512KB以上)。GPFSはスケーラビリティに対応するように設計されており、単一のGPFSファイル・システムに格納できるデータ量であれば、複数のGPFSファイル・システムを作成する必要はありません。 |
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、gridかoracle)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle、Oracle Clusterwareファイルの記憶域がclusterの場合は、次のようになります。
# mkdir /mount_point/cluster # chown oracle:oinstall /mount_point/cluster # chmod 775 /mount_point/cluster
|
注意: インストール後、Oracle Cluster Registry(OCR)ファイルのインストール・パスにあるディレクトリはrootが所有し、root以外のアカウントでは書込みできないようにする必要があります。 |
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、GPFSの構成は完了です。
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。
|
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -kコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、ファイル・システムを特定します。
| ファイル・タイプ | ファイル・システムの要件 |
|---|---|
| データベース・ファイル | 次のいずれかを選択します。
|
| リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(高速リカバリ領域):
# mkdir /mount_point/fast_recovery_area # chown oracle:oinstall /mount_point/fast_recovery_area # chmod 775 /mount_point/fast_recovery_area
oinstallグループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のNFSの構成は完了です。
Direct NFSクライアントを無効にするには、次の手順を実行します。
Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします(ここで、Grid_homeはOracle Grid Infrastructureホームへのパスです)。
$ cd Grid_home/rdbms/lib
$ make -f ins_rdbms.mk dnfs_off
クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。
oranfstabファイルを削除します。
|
注意: Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。 |
次の項で、Oracle Automatic Storage Managementの記憶域の構成について説明します。
この項では、Oracle Automatic Storage Management (Oracle ASM)で使用する記憶域の構成方法について説明します。
Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ディスク)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
|
注意: Oracle Clusterware、Oracle Databaseファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。一方のファイル・タイプに共有ファイル・システムを、他方にOracle ASMを使用することもできます。自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバリ・ファイルの記憶域にOracle ASMを使用する必要があります。 |
インストール中に自動バックアップを有効にした場合は、高速リカバリ領域にOracle Automatic Storage Managementディスク・グループを指定することで、リカバリ・ファイル用の記憶域メカニズムとしてOracle ASMを選択できます。非対話型のインストール・モードを選択した場合、デフォルトで1つのディスク・グループが作成され、そこにOCRと投票ディスク・ファイルが格納されます。後続のデータベース・インストールで使用するために他のディスク・グループが必要な場合は、対話型モードを選択するか、ASMCA(コマンドライン・ツール)を実行して、データベースのインストールを開始する前に、適切なディスク・グループを作成します。
Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。
Oracle ASMディスク・グループに選択した冗長レベルによって、Oracle ASMでディスク・グループ内のファイルをミラー化する方法および必要となるディスク数と空きディスク領域は次のようになります。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
Oracle Clusterwareファイルの場合、外部冗長ディスク・グループは、コピーなしの1つの投票ディスクと1つのOCRを提供します。高可用性を確保するためにミラー化を行うには、外部テクノロジを使用する必要があります。
Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
Oracle Clusterwareファイルの場合、標準冗長ディスク・グループでは、投票ディスク・ファイルが3つ、OCRが1つ、コピーが2つ(1つはプライマリ、1つはセカンダリ・ミラー)になります。標準冗長のクラスタは、障害グループを1つ失っても存続できます。
ほとんどの使用環境では、標準冗長を選択することをお薦めします。
高冗長
高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
Oracle Clusterwareファイルの場合、高冗長ディスク・グループでは、投票ディスク・ファイルが5つ、OCRが1つ、コピーが3つ(1つはプライマリ、2つはセカンダリ・ミラー)になります。高冗長のクラスタは、障害グループを2つ失っても存続できます。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
表3-4と表3-5を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します。投票ディスクは別のディスク・グループにあるものとします。
表3-4 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計
| 冗長レベル | ディスクの最小台数 | Oracle Cluster Registry(OCR)ファイル | 投票ディスク・ファイル | 合計 |
|---|---|---|---|---|
|
外部 |
1 |
300MB |
600MB |
900MB |
|
標準 |
3 |
600MB |
900MB |
1.5GB脚注 1 |
|
高 |
5 |
900MB |
1.5GB |
2.4GB |
脚注1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。
|
注意: 投票ディスク・ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ディスク)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。インストール中に、OCRおよび投票ディスク・ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。 定数障害グループは特別なタイプの障害グループであり、これらの障害グループのディスクにユーザー・データは含まれません。定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。ただし、ディスク・グループをマウントする場合は定数障害グループが考慮されます。 |
割当て単位サイズを決定します。すべてのOracle ASMディスクは割当て単位(AU)に分割されます。割当て単位は、ディスク・グループ内の割当ての基本単位です。特定のディスク・グループ互換レベルに応じて、AUサイズの値に1、2、4、8、16、32、64MBを選択できます。デフォルト値は1MBに設定されています。
Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ディスク・ファイルおよびOracle ASMメタデータの追加のディスク領域の要件(単位: MB)を計算します。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)
ausize: メタデータのAUサイズ(MB単位)
nodes: クラスタ内のノード数
clients - 各ノードのデータベース・インスタンス数
disks - ディスク・グループ内のディスク数
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、追加領域が必要になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
標準冗長性ディスク・グループで、Oracle ASMでのOracle Clusterwareファイルの高可用性を確保するには、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。Oracle Clusterwareファイルを作成するのに効果的な2GBのディスク容量を確保するには、各ディスクに2.1GB以上、3台のディスクで合計6.3GB以上の容量を確保する必要があります。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
|
注意: インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd、またはSQLコマンドを使用して、カスタム障害グループを定義します。
カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 データベース・ファイルと、投票ディスクを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。 投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle ASMは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。
動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。
そのファイルを作成するには、次の手順を実行します。
必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。
この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。
ユーザーをrootに切り替えます。
マウント・ポイント・ディレクトリをローカル・システムに作成します。次に例を示します。
# mkdir -p /mnt/asm
システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/vfstabにファイル・システムのエントリを追加します。
|
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、manページを参照してください。推奨されるマウント・オプションの詳細は、第3.2.5項「記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成」を参照してください。
次のコマンドを入力して、NFSファイル・システムをローカル・システムにマウントします。
# mount /mnt/asm
作成するディスク・グループの名前を選択します。たとえば、sales1とします。
NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。次に例を示します。
# mkdir /mnt/asm/nfsdg
次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。
# dd if=/dev/zero of=/mnt/asm/nfsdg/disk1 bs=1024k count=1000
この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。
作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid、OSASMグループはasmadminです。
# chown -R grid:asmadmin /mnt/asm # chmod -R 660 /mnt/asm
Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。
/mnt/asm/sales1/
|
注意: インストール中に、Oracle ASMにマウントされたディスク・パスがデフォルトのデータベース記憶域の候補ディスクとしてリストされます。 |
既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
|
注意: 既存ディスク・グループを管理するOracle ASMインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
既存のOracle ASMディスク・グループが存在するかどうか、またはディスク・グループに十分なディスク領域があるかどうかを判断するために、Oracle ASMコマンドライン・ツール(asmcmd)、Oracle Enterprise Manager Grid ControlまたはDatabase Controlを使用できます。また、次の手順も使用できます。
oratabファイルの内容を表示して、Oracle ASMインスタンスがシステムに組み込まれているかどうかを判断します。
$ more /etc/oratab
Oracle ASMインスタンスがシステムに組み込まれている場合、oratabファイルには次のような行が含まれます。
+ASM2:oracle_home_path
この例では、+ASM2はOracle ASMインスタンスのシステム識別子(SID)、oracle_home_pathは自動ストレージ管理インスタンスが組み込まれているOracleホーム・ディレクトリです。表記規則により、Oracle ASMインスタンスのSIDは、プラス(+)記号で始まります。
環境変数ORACLE_SIDおよびORACLE_HOMEを設定して、Oracle ASMインスタンスに対して適切な値を指定します。
Oracle ASMインスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/asmcmd ASMCMD> startup
次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
ASMCMD> lsdb
または
$ORACLE_HOME/bin/asmcmd -p lsdg
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
|
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
Oracle Automatic Storage Management (Oracle ASM)ディスク・グループとして使用するRAWディスクを構成できます。Oracle ASMをRAWディスクで使用するには、データ・ファイル用に十分なパーティションを作成した後、そのパーティションをRAWディスクにバインドする必要があります。データ・ファイル用に作成するRAWディスク名のリストを作成し、そのリストをデータベースのインストール時に使用できるようにします。
次の手順で、物理ボリュームID(PVID)をRAWディスク用に設定するように指示されます。構成の問題を回避するために、ご使用のシステムでPVIDを構成していない場合でも、この手順全体を完了することをお薦めします。
|
注意: ストレージにHitachi HDLM(dmlfデバイス)を使用する場合、ASMインスタンスは自動的には物理ディスクを検出せず、論理ボリューム・マネージャ(LVM)ディスクのみを検出します。これは、物理ディスクをオープンできるのはrootで実行しているプログラムのみであるためです。
物理ディスクのパスには、次のようなパス名があります。 /dev/rdlmfdrv8 /dev/rdlmfdrv9 |
ディスクを構成するには、次の手順を実行します。
必要に応じて、ディスク・グループに使用するディスクを設置し、システムを再起動します。
Oracle ASMディスク・グループに含めるディスクを指定または作成します。任意のノードで、rootユーザーとして次のコマンドを入力し、使用するディスク・デバイスのデバイス名を確認します。
# /usr/sbin/lspv | grep -i none
このコマンドによって、ボリューム・グループに構成されていないディスク・デバイスごとに、次のような情報が表示されます。
hdisk17 0009005fb9c23648 None
この例では、hdisk17はディスクのデバイス名、0009005fb9c23648は物理ボリュームID(PVID)です。
使用するディスク・デバイスにPVIDがない場合は、次のコマンドを入力してディスク・デバイスに割り当てます。nはhdiskの数です。
# chdev -l hdiskn -a pv=yes
|
注意: 既存のPVIDがある場合は、chdevによって上書きされます。以前のPVIDに依存するアプリケーションがある場合、それらは失敗することに注意してください。 |
他のそれぞれのノードで、次のコマンドを入力し、そのノードの各PVIDに関連付けられているデバイス名を確認します。
# /usr/sbin/lspv | grep -i "0009005fb9c23648"
このコマンドの出力結果は、次のようになります。
hdisk18 0009005fb9c23648 None
この例では、ディスク・デバイスに関連付けられているデバイス名(hdisk18)は、前述のノードのものとは異なります。
デバイス名がすべてのノードで同じである場合は、すべてのノードで次のコマンドを入力し、ディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。gridは、Oracle Grid Infrastructureインストールの所有者、asmadminはOSASMグループです。
# chown grid:asmadmin /dev/rhdiskn # chmod 660 /dev/rhdiskn
複数のノードからディスク・デバイスに同時アクセスできるようにするには、ディスクで使用する予約属性のタイプに応じて、適切なObject Data Manager(ODM)属性を設定する必要があります。次の項では、論理名hdiskを使用してこのタスクを実行する方法について説明します。論理デバイス名については、ご使用のオペレーティング・システムのマニュアルを参照してください。
ディスクで使用する予約設定を確認するには、次のコマンドを入力します。nはhdiskのデバイス番号です。
# lsattr -E -l hdiskn | grep reserve_
このコマンドの結果として、reserve_lock設定またはreserve_policy設定が返されます。属性がreserve_lockの場合は、設定がreserve_lock = noであることを確認します。属性がreserve_policyの場合は、設定がreserve_policy = no_reserveであることを確認します。
必要に応じて、chdevコマンドで次の構文を使用して設定を変更します。nはhdiskのデバイス番号です。
chdev -l hdiskn -a [ reserve_lock=no | reserve_policy=no_reserve ]
たとえば、デバイスhdisk4の設定をreserve_lock=yesからreserve_lock=noに変更するには、次のコマンドを入力します。
# chdev -l hdisk4 -a reserve_lock=no
すべてのディスク・デバイスで設定が適切であることを確認するには、次のコマンドを入力します。
# lsattr -El hdiskn | grep reserve
任意のノードで次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。
# /usr/sbin/chdev -l hdiskn -a pv=clear
Oracle Clusterwareをインストールする際に、OCRおよびOracle Clusterware投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。
/dev/rhdisk10
次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle Automatic Storage Managementの記憶域の構成について説明します。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
必要な場合は、Oracle Automatic Storage Managementディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
|
注意: カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle Automatic Storage Managementディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle Automatic Storage Managementは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、これを使用することはお薦めしません。共有されていない論理ボリュームはOracle RACではサポートされません。論理ボリュームをOracle RACデータベースに使用する場合は、クラスタ対応の論理ボリューム・マネージャによって作成された共有同時実行RAW論理ボリュームを使用する必要があります。
Oracle ACFSは、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)11gリリース2(11.2)のインストールの一部として、インストールされます。Oracle ACFSをデータベース・ホーム用に構成したり、ASMCAを使用して汎用ファイルシステムとしてACFSを構成することができます。
|
注意: Oracle ACFSは、AIX 6.1(PPC64)に対するAIX 6.1 TL4 SP2以上の更新でのみサポートされています。クラスタ用Oracle Grid Infrastructure 11gリリース2(11.2)でサポートされている他のAIXリリースはいずれも、Oracle ACFSをサポートしていません。 |
Oracle RACデータベース用にOracle Databaseホーム用のOracle ACFSを構成するには、次の手順を実行します。
クラスタ用Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)をインストールします。
Oracle Grid Infrastructureホームに移動します。次に例を示します。
$ cd /u01/app/11.2.0/grid
Oracle Grid Infrastructureインストール所有者が、使用するストレージ・マウント・ポイントに対する読込みおよび書込み権限を持っていることを確認します。たとえば、マウント・ポイント/u02/acfsmounts/を使用する場合は次のようになります。
$ ls -l /u02/acfsmounts
Gridインストールの所有者として、Oracle ASM Configuration Assistantを起動します。次に例を示します。
./asmca
「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。「ASMクラスタ・ファイルシステム」タブをクリックします。
「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択します。
「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。
データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。この名前は、社内で一意である必要があります。たとえば、dbase_01とします。
データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。たとえば、/u02/acfsmounts/dbase_01とします。
後で参照するために、このマウント・ポイントを書き留めます。
データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。
データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を入力します。たとえば、oracle1とします。
データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを入力します。このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与されます。たとえば、dba1とします。
入力が完了したら、「OK」をクリックします。
特権ユーザー(root)として、Oracle ASM Configuration Assistantによって生成されたスクリプトを実行します。Oracle Clusterware環境では、Oracle Clusterwareによって管理されるリソースとしてACFSが登録されます。リソースとしてACFSを登録することによって、ACFSがOracle RACデータベース・ホームに使用される場合に、Oracle ClusterwareがACFSを適切な順序で自動的にマウントできるようになります。
Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイント」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01)。
|
関連項目: Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Databaseストレージ管理者ガイド』を参照してください。 |
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home/binにあるOracle Automatic Storage Management Configuration Assistant (ASMCA)を使用して、既存のOracle ASMインスタンスをOracle ASM 11gリリース2(11.2)にアップグレードし、その後で障害グループ、Oracle ASMボリュームおよびOracle Automatic Storage Management Cluster File System (ACFS)を構成できます。
|
注意: 既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。 |
インストール時、11.2より前のOracle ASMリリースからアップグレードしていて、Oracle ASMを使用することを選択し、以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 11gリリース2(11.2)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。次に、Oracle ASMボリュームを作成し、アップグレードしたOracle ASMを使用してOracle ACFSを作成することで、Oracle ACFSのデプロイメントを構成できます。
Oracle ASM 11gリリース2(11.2.0.1)以上からアップグレードしている場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。リリース11.2.0.1から11.2.0.2では、ASMCAがOracle ASMを個別にアップグレードすることはできません。
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。Oracle ASMは、すべてのノードで11gリリース2(11.2)にアップグレードされます。
Oracle Database 11gリリース2(11.2)およびOracle RAC 11gリリース2(11.2)では、Database Configuration Assistantまたはインストーラを使用して、RAWデバイス上に直接Oracle ClusterwareまたはOracle Databaseファイルを格納する処理がサポートされなくなりました。
既存のOracle RACデータベースをアップグレードする場合、またはOracle ASMインスタンスを使用するOracle RACデータベースをアップグレードする場合は、既存のRAWディスクまたはRAW論理ボリュームを使用して、既存のインストールをローリング・アップグレードできます。RAWディスクまたはRAW論理ボリュームを使用した、新しいインストールは実行できません。